Home
last modified time | relevance | path

Searched refs:qdisc_pkt_len (Results 1 – 20 of 20) sorted by relevance

/linux-4.4.14/include/net/
Dcodel.h244 sch->qstats.backlog -= qdisc_pkt_len(skb); in codel_should_drop()
246 if (unlikely(qdisc_pkt_len(skb) > stats->maxpacket)) in codel_should_drop()
247 stats->maxpacket = qdisc_pkt_len(skb); in codel_should_drop()
313 stats->drop_len += qdisc_pkt_len(skb);
336 stats->drop_len += qdisc_pkt_len(skb);
Dsch_generic.h476 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function
518 bstats->bytes += qdisc_pkt_len(skb); in bstats_update()
545 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec()
551 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc()
622 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
725 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop()
/linux-4.4.14/net/sched/
Dsch_gred.c168 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue()
193 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue()
233 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue()
234 q->backlog += qdisc_pkt_len(skb); in gred_enqueue()
262 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
286 unsigned int len = qdisc_pkt_len(skb); in gred_drop()
Dsch_sfq.c306 len = qdisc_pkt_len(skb); in sfq_drop()
431 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue()
442 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue()
501 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue()
512 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue()
569 drop_len += qdisc_pkt_len(skb); in sfq_rehash()
585 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
Dsch_fq_codel.c156 len = qdisc_pkt_len(skb); in fq_codel_drop()
194 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue()
232 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue()
281 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue()
380 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
Dact_police.c276 if (qdisc_pkt_len(skb) <= police->tcfp_mtu) { in tcf_act_police()
290 qdisc_pkt_len(skb)); in tcf_act_police()
295 toks -= (s64) psched_l2t_ns(&police->rate, qdisc_pkt_len(skb)); in tcf_act_police()
Dsch_tbf.c163 unsigned int len = 0, prev_len = qdisc_pkt_len(skb); in tbf_segment()
198 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue()
242 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
Dsch_qfq.c1004 else if (cl->deficit < qdisc_pkt_len(cl->qdisc->ops->peek(cl->qdisc))) { in agg_dequeue()
1021 *len = qdisc_pkt_len(skb); in qfq_peek_skb()
1233 if (unlikely(cl->agg->lmax < qdisc_pkt_len(skb))) { in qfq_enqueue()
1235 cl->agg->lmax, qdisc_pkt_len(skb), cl->common.classid); in qfq_enqueue()
1237 qdisc_pkt_len(skb)); in qfq_enqueue()
1260 == cl && cl->deficit < qdisc_pkt_len(skb)) in qfq_enqueue()
Dsch_fifo.c24 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= sch->limit)) in bfifo_enqueue()
Dsch_fq.c483 f->credit -= qdisc_pkt_len(skb); in fq_dequeue()
497 u32 plen = max(qdisc_pkt_len(skb), q->quantum); in fq_dequeue()
740 drop_len += qdisc_pkt_len(skb); in fq_change()
Dsch_choke.c131 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx()
471 dropped += qdisc_pkt_len(skb); in choke_change()
Dsch_hhf.c288 pkt_len = qdisc_pkt_len(skb); in hhf_classify()
466 bucket->deficit -= qdisc_pkt_len(skb); in hhf_dequeue()
Dsch_codel.c160 dropped += qdisc_pkt_len(skb); in codel_change()
Dsch_netem.c430 unsigned int len = 0, last_len, prev_len = qdisc_pkt_len(skb); in netem_enqueue()
536 delay += packet_len_2_sched_time(qdisc_pkt_len(skb), q); in netem_enqueue()
659 qdisc_pkt_len(skb)); in netem_dequeue()
Dsch_hfsc.c889 len = qdisc_pkt_len(skb); in qdisc_peek_len()
1605 set_active(cl, qdisc_pkt_len(skb)); in hfsc_enqueue()
1655 update_vf(cl, qdisc_pkt_len(skb), cur_time); in hfsc_dequeue()
1657 cl->cl_cumul += qdisc_pkt_len(skb); in hfsc_dequeue()
Dsch_cbq.c861 cl->deficit -= qdisc_pkt_len(skb); in cbq_dequeue_prio()
869 borrow->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio()
870 cl->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio()
873 q->tx_len = qdisc_pkt_len(skb); in cbq_dequeue_prio()
Dsch_teql.c312 unsigned int length = qdisc_pkt_len(skb); in teql_master_xmit()
Dsch_pie.c235 dropped += qdisc_pkt_len(skb); in pie_change()
Dsch_drr.c399 len = qdisc_pkt_len(skb); in drr_dequeue()
Dsch_htb.c648 int bytes = qdisc_pkt_len(skb); in htb_charge_class()
863 cl->un.leaf.deficit[level] -= qdisc_pkt_len(skb); in htb_dequeue_tree()