Home
last modified time | relevance | path

Searched refs:qdisc_pkt_len (Results 1 - 25 of 62) sorted by relevance

123

/kernel/linux/linux-5.10/net/sched/
H A Dsch_skbprio.c85 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
108 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
117 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue()
152 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
H A Dsch_sfq.c307 len = qdisc_pkt_len(skb); in sfq_drop()
431 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue()
443 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue()
470 qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb)); in sfq_enqueue()
504 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue()
515 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue()
572 drop_len += qdisc_pkt_len(skb); in sfq_rehash()
588 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
H A Dsch_fq_codel.c169 len += qdisc_pkt_len(skb); in fq_codel_drop()
206 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue()
224 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue()
265 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func()
268 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
304 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue()
316 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue()
434 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
H A Dsch_codel.c75 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
95 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue()
179 dropped += qdisc_pkt_len(skb); in codel_change()
H A Dsch_tbf.c196 unsigned int len = 0, prev_len = qdisc_pkt_len(skb); in tbf_segment()
228 unsigned int len = qdisc_pkt_len(skb); in tbf_enqueue()
231 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue()
265 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
H A Dsch_gred.c181 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue()
206 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue()
246 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue()
247 q->backlog += qdisc_pkt_len(skb); in gred_enqueue()
275 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
H A Dact_police.c223 len = qdisc_pkt_len(skb); in tcf_police_mtu_check()
266 qdisc_pkt_len(skb)); in tcf_police_act()
271 toks -= (s64)psched_l2t_ns(&p->rate, qdisc_pkt_len(skb)); in tcf_police_act()
H A Dsch_fq_pie.c180 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_enqueue()
261 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_dequeue()
365 len_dropped += qdisc_pkt_len(skb); in fq_pie_change()
H A Dsch_cbs.c91 unsigned int len = qdisc_pkt_len(skb); in cbs_child_enqueue()
210 len = qdisc_pkt_len(skb); in cbs_dequeue_soft()
H A Dsch_choke.c128 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx()
394 dropped += qdisc_pkt_len(skb); in choke_change()
H A Dsch_drr.c343 unsigned int len = qdisc_pkt_len(skb); in drr_enqueue()
394 len = qdisc_pkt_len(skb); in drr_dequeue()
H A Dsch_cake.c1354 u32 len = qdisc_pkt_len(skb); in cake_overhead()
1536 len = qdisc_pkt_len(skb); in cake_drop()
1698 int len = qdisc_pkt_len(skb); in cake_enqueue()
1786 b->bytes += qdisc_pkt_len(ack); in cake_enqueue()
1787 len -= qdisc_pkt_len(ack); in cake_enqueue()
1792 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(ack)); in cake_enqueue()
1920 len = qdisc_pkt_len(skb); in cake_dequeue_one()
2176 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in cake_dequeue()
/kernel/linux/linux-6.6/net/sched/
H A Dsch_skbprio.c85 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
108 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
117 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue()
152 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
H A Dsch_sfq.c307 len = qdisc_pkt_len(skb); in sfq_drop()
431 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue()
443 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue()
470 qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb)); in sfq_enqueue()
504 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue()
515 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue()
572 drop_len += qdisc_pkt_len(skb); in sfq_rehash()
588 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
H A Dsch_fq_codel.c169 len += qdisc_pkt_len(skb); in fq_codel_drop()
206 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue()
224 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue()
265 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func()
268 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
304 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue()
316 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue()
438 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
H A Dsch_codel.c75 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
95 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue()
176 dropped += qdisc_pkt_len(skb); in codel_change()
H A Dsch_tbf.c211 unsigned int len = 0, prev_len = qdisc_pkt_len(skb); in tbf_segment()
243 unsigned int len = qdisc_pkt_len(skb); in tbf_enqueue()
246 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue()
280 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
H A Dact_police.c240 len = qdisc_pkt_len(skb); in tcf_police_mtu_check()
284 qdisc_pkt_len(skb)); in tcf_police_act()
290 toks -= (s64)psched_l2t_ns(&p->rate, qdisc_pkt_len(skb)); in tcf_police_act()
H A Dsch_fq_pie.c180 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_enqueue()
261 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_dequeue()
362 len_dropped += qdisc_pkt_len(skb); in fq_pie_change()
H A Dsch_gred.c182 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue()
207 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue()
247 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue()
248 q->backlog += qdisc_pkt_len(skb); in gred_enqueue()
276 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
H A Dsch_cbs.c92 unsigned int len = qdisc_pkt_len(skb); in cbs_child_enqueue()
211 len = qdisc_pkt_len(skb); in cbs_dequeue_soft()
H A Dsch_choke.c127 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx()
393 dropped += qdisc_pkt_len(skb); in choke_change()
H A Dsch_drr.c335 unsigned int len = qdisc_pkt_len(skb); in drr_enqueue()
386 len = qdisc_pkt_len(skb); in drr_dequeue()
/kernel/linux/linux-5.10/include/net/
H A Dsch_generic.h802 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function
848 qdisc_pkt_len(skb), in bstats_update()
883 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec()
889 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec()
895 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc()
901 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc()
1078 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
/kernel/linux/linux-6.6/include/net/
H A Dsch_generic.h816 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function
864 qdisc_pkt_len(skb), in bstats_update()
883 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec()
889 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec()
895 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc()
901 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc()
1070 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()

Completed in 27 milliseconds

123