/linux-4.4.14/net/sched/ |
D | sch_mq.c | 27 struct net_device *dev = qdisc_dev(sch); in mq_destroy() 40 struct net_device *dev = qdisc_dev(sch); in mq_init() 79 struct net_device *dev = qdisc_dev(sch); in mq_attach() 101 struct net_device *dev = qdisc_dev(sch); in mq_dump() 126 struct net_device *dev = qdisc_dev(sch); in mq_queue_get() 141 struct net_device *dev = qdisc_dev(sch); in mq_select_queue() 152 struct net_device *dev = qdisc_dev(sch); in mq_graft() 210 struct net_device *dev = qdisc_dev(sch); in mq_walk()
|
D | sch_mqprio.c | 29 struct net_device *dev = qdisc_dev(sch); in mqprio_destroy() 94 struct net_device *dev = qdisc_dev(sch); in mqprio_init() 168 struct net_device *dev = qdisc_dev(sch); in mqprio_attach() 189 struct net_device *dev = qdisc_dev(sch); in mqprio_queue_get() 200 struct net_device *dev = qdisc_dev(sch); in mqprio_graft() 222 struct net_device *dev = qdisc_dev(sch); in mqprio_dump() 276 struct net_device *dev = qdisc_dev(sch); in mqprio_get() 291 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class() 325 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class_stats() 375 struct net_device *dev = qdisc_dev(sch); in mqprio_walk()
|
D | sch_ingress.c | 46 struct net_device *dev = qdisc_dev(sch); in ingress_find_tcf() 61 struct net_device *dev = qdisc_dev(sch); in ingress_destroy()
|
D | sch_fifo.c | 57 u32 limit = qdisc_dev(sch)->tx_queue_len; in fifo_init() 60 limit *= psched_mtu(qdisc_dev(sch)); in fifo_init() 73 bypass = sch->limit >= psched_mtu(qdisc_dev(sch)); in fifo_init()
|
D | sch_teql.c | 82 struct net_device *dev = qdisc_dev(sch); in teql_enqueue() 106 struct net_device *m = qdisc_dev(q); in teql_dequeue() 172 struct net_device *dev = qdisc_dev(sch); in teql_qdisc_init() 298 struct net_device *slave = qdisc_dev(q); in teql_master_xmit() 370 struct net_device *slave = qdisc_dev(q); in teql_master_open() 427 if (new_mtu > qdisc_dev(q)->mtu) in teql_master_mtu()
|
D | sch_multiq.c | 111 netdev_get_tx_queue(qdisc_dev(sch), q->curband))) { in multiq_dequeue() 143 netdev_get_tx_queue(qdisc_dev(sch), curband))) { in multiq_peek() 206 if (!netif_is_multiqueue(qdisc_dev(sch))) in multiq_tune() 213 qopt->bands = qdisc_dev(sch)->real_num_tx_queues; in multiq_tune() 264 q->max_bands = qdisc_dev(sch)->num_tx_queues; in multiq_init()
|
D | sch_plug.c | 133 q->limit = qdisc_dev(sch)->tx_queue_len in plug_init() 134 * psched_mtu(qdisc_dev(sch)); in plug_init()
|
D | sch_tbf.c | 380 if (max_size < psched_mtu(qdisc_dev(sch))) in tbf_change() 382 max_size, qdisc_dev(sch)->name, in tbf_change() 383 psched_mtu(qdisc_dev(sch))); in tbf_change()
|
D | sch_generic.c | 228 dev = qdisc_dev(q); in qdisc_restart() 477 if (skb_queue_len(&qdisc->q) < qdisc_dev(qdisc)->tx_queue_len) { in pfifo_fast_enqueue() 692 dev_put(qdisc_dev(qdisc)); in qdisc_destroy()
|
D | sch_gred.c | 516 sch->limit = qdisc_dev(sch)->tx_queue_len in gred_init() 517 * psched_mtu(qdisc_dev(sch)); in gred_init()
|
D | ematch.c | 181 struct net *net = dev_net(qdisc_dev(tp->q)); in tcf_em_validate()
|
D | sch_fq.c | 766 q->quantum = 2 * psched_mtu(qdisc_dev(sch)); in fq_init() 767 q->initial_quantum = 10 * psched_mtu(qdisc_dev(sch)); in fq_init()
|
D | sch_api.c | 278 struct Qdisc *root = qdisc_dev(q)->qdisc; in qdisc_list_add() 766 sch = qdisc_lookup(qdisc_dev(sch), TC_H_MAJ(parentid)); in qdisc_tree_reduce_backlog() 1353 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_qdisc() 1672 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_tclass()
|
D | sch_qfq.c | 441 lmax = psched_mtu(qdisc_dev(sch)); in qfq_change_class() 1480 if (qdisc_dev(sch)->tx_queue_len + 1 > QFQ_MAX_AGG_CLASSES) in qfq_init_qdisc() 1483 max_classes = qdisc_dev(sch)->tx_queue_len + 1; in qfq_init_qdisc()
|
D | sch_pie.c | 103 u32 mtu = psched_mtu(qdisc_dev(sch)); in drop_early()
|
D | cls_bpf.c | 299 netif_keep_dst(qdisc_dev(tp->q)); in cls_bpf_prog_from_efd()
|
D | sch_drr.c | 88 quantum = psched_mtu(qdisc_dev(sch)); in drr_change_class()
|
D | sch_cbq.c | 1046 cl->quantum > 32*qdisc_dev(cl->qdisc)->mtu) { in cbq_normalize_quanta() 1049 cl->quantum = qdisc_dev(cl->qdisc)->mtu/2 + 1; in cbq_normalize_quanta() 1380 q->link.allot = psched_mtu(qdisc_dev(sch)); in cbq_init()
|
D | sch_hhf.c | 601 q->quantum = psched_mtu(qdisc_dev(sch)); in hhf_init()
|
D | cls_route.c | 531 netif_keep_dst(qdisc_dev(tp->q)); in route4_change()
|
D | cls_api.c | 368 tcm->tcm_ifindex = qdisc_dev(tp->q)->ifindex; in tcf_fill_node()
|
D | cls_flow.c | 507 netif_keep_dst(qdisc_dev(tp->q)); in flow_change()
|
D | sch_fq_codel.c | 422 q->quantum = psched_mtu(qdisc_dev(sch)); in fq_codel_init()
|
D | sch_sfb.c | 505 limit = qdisc_dev(sch)->tx_queue_len; in sfb_change()
|
D | sch_sfq.c | 731 q->quantum = psched_mtu(qdisc_dev(sch)); in sfq_init()
|
D | sch_htb.c | 1055 q->direct_qlen = qdisc_dev(sch)->tx_queue_len; in htb_init()
|
/linux-4.4.14/include/net/ |
D | codel.h | 184 params->mtu = psched_mtu(qdisc_dev(sch)); in codel_params_init()
|
D | sch_generic.h | 324 static inline struct net_device *qdisc_dev(const struct Qdisc *qdisc) in qdisc_dev() function
|