Home
last modified time | relevance | path

Searched refs:qdisc_pkt_len (Results 1 – 18 of 18) sorted by relevance

/linux-4.1.27/include/net/
Dcodel.h235 sch->qstats.backlog -= qdisc_pkt_len(skb); in codel_should_drop()
237 if (unlikely(qdisc_pkt_len(skb) > stats->maxpacket)) in codel_should_drop()
238 stats->maxpacket = qdisc_pkt_len(skb); in codel_should_drop()
Dsch_generic.h473 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function
521 bstats->bytes += qdisc_pkt_len(skb); in bstats_update()
545 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec()
551 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc()
614 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
700 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop()
/linux-4.1.27/net/sched/
Dsch_gred.c192 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue()
232 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue()
233 q->backlog += qdisc_pkt_len(skb); in gred_enqueue()
261 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
285 unsigned int len = qdisc_pkt_len(skb); in gred_drop()
Dsch_sfq.c329 len = qdisc_pkt_len(skb); in sfq_drop()
454 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue()
465 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue()
524 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue()
535 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue()
606 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
Dact_police.c276 if (qdisc_pkt_len(skb) <= police->tcfp_mtu) { in tcf_act_police()
290 qdisc_pkt_len(skb)); in tcf_act_police()
295 toks -= (s64) psched_l2t_ns(&police->rate, qdisc_pkt_len(skb)); in tcf_act_police()
Dsch_fq_codel.c163 len = qdisc_pkt_len(skb); in fq_codel_drop()
192 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue()
229 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue()
276 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue()
Dsch_qfq.c1009 else if (cl->deficit < qdisc_pkt_len(cl->qdisc->ops->peek(cl->qdisc))) { in agg_dequeue()
1026 *len = qdisc_pkt_len(skb); in qfq_peek_skb()
1238 if (unlikely(cl->agg->lmax < qdisc_pkt_len(skb))) { in qfq_enqueue()
1240 cl->agg->lmax, qdisc_pkt_len(skb), cl->common.classid); in qfq_enqueue()
1242 qdisc_pkt_len(skb)); in qfq_enqueue()
1265 == cl && cl->deficit < qdisc_pkt_len(skb)) in qfq_enqueue()
Dsch_fifo.c24 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= sch->limit)) in bfifo_enqueue()
Dact_gact.c132 gact->tcf_bstats.bytes += qdisc_pkt_len(skb); in tcf_gact()
Dsch_tbf.c196 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue()
240 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
Dsch_hhf.c305 pkt_len = qdisc_pkt_len(skb); in hhf_classify()
472 bucket->deficit -= qdisc_pkt_len(skb); in hhf_dequeue()
Dsch_hfsc.c889 len = qdisc_pkt_len(skb); in qdisc_peek_len()
1608 set_active(cl, qdisc_pkt_len(skb)); in hfsc_enqueue()
1658 update_vf(cl, qdisc_pkt_len(skb), cur_time); in hfsc_dequeue()
1660 cl->cl_cumul += qdisc_pkt_len(skb); in hfsc_dequeue()
Dsch_fq.c480 f->credit -= qdisc_pkt_len(skb); in fq_dequeue()
494 u32 plen = max(qdisc_pkt_len(skb), q->quantum); in fq_dequeue()
Dsch_cbq.c861 cl->deficit -= qdisc_pkt_len(skb); in cbq_dequeue_prio()
869 borrow->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio()
870 cl->xstats.borrows += qdisc_pkt_len(skb); in cbq_dequeue_prio()
873 q->tx_len = qdisc_pkt_len(skb); in cbq_dequeue_prio()
Dsch_teql.c312 unsigned int length = qdisc_pkt_len(skb); in teql_master_xmit()
Dsch_drr.c402 len = qdisc_pkt_len(skb); in drr_dequeue()
Dsch_htb.c647 int bytes = qdisc_pkt_len(skb); in htb_charge_class()
862 cl->un.leaf.deficit[level] -= qdisc_pkt_len(skb); in htb_dequeue_tree()
Dsch_netem.c500 delay += packet_len_2_sched_time(qdisc_pkt_len(skb), q); in netem_enqueue()