Searched refs:qdisc_pkt_len (Results 1 – 18 of 18) sorted by relevance
/linux-4.1.27/include/net/ |
D | codel.h | 235 sch->qstats.backlog -= qdisc_pkt_len(skb); in codel_should_drop() 237 if (unlikely(qdisc_pkt_len(skb) > stats->maxpacket)) in codel_should_drop() 238 stats->maxpacket = qdisc_pkt_len(skb); in codel_should_drop()
|
D | sch_generic.h | 473 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function 521 bstats->bytes += qdisc_pkt_len(skb); in bstats_update() 545 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec() 551 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc() 614 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head() 700 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop()
|
/linux-4.1.27/net/sched/ |
D | sch_gred.c | 192 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue() 232 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue() 233 q->backlog += qdisc_pkt_len(skb); in gred_enqueue() 261 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue() 285 unsigned int len = qdisc_pkt_len(skb); in gred_drop()
|
D | sch_sfq.c | 329 len = qdisc_pkt_len(skb); in sfq_drop() 454 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue() 465 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue() 524 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue() 535 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue() 606 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
|
D | act_police.c | 276 if (qdisc_pkt_len(skb) <= police->tcfp_mtu) { in tcf_act_police() 290 qdisc_pkt_len(skb)); in tcf_act_police() 295 toks -= (s64) psched_l2t_ns(&police->rate, qdisc_pkt_len(skb)); in tcf_act_police()
|
D | sch_fq_codel.c | 163 len = qdisc_pkt_len(skb); in fq_codel_drop() 192 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue() 229 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue() 276 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue()
|
D | sch_qfq.c | 1009 else if (cl->deficit < qdisc_pkt_len(cl->qdisc->ops->peek(cl->qdisc))) { in agg_dequeue() 1026 *len = qdisc_pkt_len(skb); in qfq_peek_skb() 1238 if (unlikely(cl->agg->lmax < qdisc_pkt_len(skb))) { in qfq_enqueue() 1240 cl->agg->lmax, qdisc_pkt_len(skb), cl->common.classid); in qfq_enqueue() 1242 qdisc_pkt_len(skb)); in qfq_enqueue() 1265 == cl && cl->deficit < qdisc_pkt_len(skb)) in qfq_enqueue()
|
D | sch_fifo.c | 24 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= sch->limit)) in bfifo_enqueue()
|
D | act_gact.c | 132 gact->tcf_bstats.bytes += qdisc_pkt_len(skb); in tcf_gact()
|
D | sch_tbf.c | 196 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue() 240 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
|
D | sch_hhf.c | 305 pkt_len = qdisc_pkt_len(skb); in hhf_classify() 472 bucket->deficit -= qdisc_pkt_len(skb); in hhf_dequeue()
|
D | sch_hfsc.c | 889 len = qdisc_pkt_len(skb); in qdisc_peek_len() 1608 set_active(cl, qdisc_pkt_len(skb)); in hfsc_enqueue() 1658 update_vf(cl, qdisc_pkt_len(skb), cur_time); in hfsc_dequeue() 1660 cl->cl_cumul += qdisc_pkt_len(skb); in hfsc_dequeue()
|
D | sch_fq.c | 480 f->credit -= qdisc_pkt_len(skb); in fq_dequeue() 494 u32 plen = max(qdisc_pkt_len(skb), q->quantum); in fq_dequeue()
|
D | sch_cbq.c | 861 cl->deficit -= qdisc_pkt_len(skb); in cbq_dequeue_prio() 869 borrow->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio() 870 cl->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio() 873 q->tx_len = qdisc_pkt_len(skb); in cbq_dequeue_prio()
|
D | sch_teql.c | 312 unsigned int length = qdisc_pkt_len(skb); in teql_master_xmit()
|
D | sch_drr.c | 402 len = qdisc_pkt_len(skb); in drr_dequeue()
|
D | sch_htb.c | 647 int bytes = qdisc_pkt_len(skb); in htb_charge_class() 862 cl->un.leaf.deficit[level] -= qdisc_pkt_len(skb); in htb_dequeue_tree()
|
D | sch_netem.c | 500 delay += packet_len_2_sched_time(qdisc_pkt_len(skb), q); in netem_enqueue()
|