/kernel/linux/linux-5.10/net/sched/ |
H A D | sch_skbprio.c | 85 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 108 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 117 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue() 152 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
|
H A D | sch_sfq.c | 307 len = qdisc_pkt_len(skb); in sfq_drop() 431 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue() 443 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue() 470 qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb)); in sfq_enqueue() 504 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue() 515 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue() 572 drop_len += qdisc_pkt_len(skb); in sfq_rehash() 588 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
|
H A D | sch_fq_codel.c | 169 len += qdisc_pkt_len(skb); in fq_codel_drop() 206 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue() 224 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue() 265 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func() 268 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 304 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue() 316 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue() 434 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
|
H A D | sch_codel.c | 75 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 95 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue() 179 dropped += qdisc_pkt_len(skb); in codel_change()
|
H A D | sch_tbf.c | 196 unsigned int len = 0, prev_len = qdisc_pkt_len(skb); in tbf_segment() 228 unsigned int len = qdisc_pkt_len(skb); in tbf_enqueue() 231 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue() 265 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
|
H A D | sch_gred.c | 181 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue() 206 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue() 246 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue() 247 q->backlog += qdisc_pkt_len(skb); in gred_enqueue() 275 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
|
H A D | act_police.c | 223 len = qdisc_pkt_len(skb); in tcf_police_mtu_check() 266 qdisc_pkt_len(skb)); in tcf_police_act() 271 toks -= (s64)psched_l2t_ns(&p->rate, qdisc_pkt_len(skb)); in tcf_police_act()
|
H A D | sch_fq_pie.c | 180 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_enqueue() 261 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_dequeue() 365 len_dropped += qdisc_pkt_len(skb); in fq_pie_change()
|
H A D | sch_cbs.c | 91 unsigned int len = qdisc_pkt_len(skb); in cbs_child_enqueue() 210 len = qdisc_pkt_len(skb); in cbs_dequeue_soft()
|
H A D | sch_choke.c | 128 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx() 394 dropped += qdisc_pkt_len(skb); in choke_change()
|
H A D | sch_drr.c | 343 unsigned int len = qdisc_pkt_len(skb); in drr_enqueue() 394 len = qdisc_pkt_len(skb); in drr_dequeue()
|
H A D | sch_cake.c | 1354 u32 len = qdisc_pkt_len(skb); in cake_overhead() 1536 len = qdisc_pkt_len(skb); in cake_drop() 1698 int len = qdisc_pkt_len(skb); in cake_enqueue() 1786 b->bytes += qdisc_pkt_len(ack); in cake_enqueue() 1787 len -= qdisc_pkt_len(ack); in cake_enqueue() 1792 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(ack)); in cake_enqueue() 1920 len = qdisc_pkt_len(skb); in cake_dequeue_one() 2176 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in cake_dequeue()
|
/kernel/linux/linux-6.6/net/sched/ |
H A D | sch_skbprio.c | 85 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 108 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 117 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue() 152 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
|
H A D | sch_sfq.c | 307 len = qdisc_pkt_len(skb); in sfq_drop() 431 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue() 443 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue() 470 qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb)); in sfq_enqueue() 504 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue() 515 slot->allot -= SFQ_ALLOT_SIZE(qdisc_pkt_len(skb)); in sfq_dequeue() 572 drop_len += qdisc_pkt_len(skb); in sfq_rehash() 588 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
|
H A D | sch_fq_codel.c | 169 len += qdisc_pkt_len(skb); in fq_codel_drop() 206 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue() 224 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue() 265 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func() 268 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 304 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue() 316 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue() 438 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
|
H A D | sch_codel.c | 75 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 95 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue() 176 dropped += qdisc_pkt_len(skb); in codel_change()
|
H A D | sch_tbf.c | 211 unsigned int len = 0, prev_len = qdisc_pkt_len(skb); in tbf_segment() 243 unsigned int len = qdisc_pkt_len(skb); in tbf_enqueue() 246 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue() 280 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
|
H A D | act_police.c | 240 len = qdisc_pkt_len(skb); in tcf_police_mtu_check() 284 qdisc_pkt_len(skb)); in tcf_police_act() 290 toks -= (s64)psched_l2t_ns(&p->rate, qdisc_pkt_len(skb)); in tcf_police_act()
|
H A D | sch_fq_pie.c | 180 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_enqueue() 261 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_dequeue() 362 len_dropped += qdisc_pkt_len(skb); in fq_pie_change()
|
H A D | sch_gred.c | 182 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue() 207 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue() 247 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue() 248 q->backlog += qdisc_pkt_len(skb); in gred_enqueue() 276 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
|
H A D | sch_cbs.c | 92 unsigned int len = qdisc_pkt_len(skb); in cbs_child_enqueue() 211 len = qdisc_pkt_len(skb); in cbs_dequeue_soft()
|
H A D | sch_choke.c | 127 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx() 393 dropped += qdisc_pkt_len(skb); in choke_change()
|
H A D | sch_drr.c | 335 unsigned int len = qdisc_pkt_len(skb); in drr_enqueue() 386 len = qdisc_pkt_len(skb); in drr_dequeue()
|
/kernel/linux/linux-5.10/include/net/ |
H A D | sch_generic.h | 802 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function 848 qdisc_pkt_len(skb), in bstats_update() 883 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec() 889 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec() 895 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc() 901 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc() 1078 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
|
/kernel/linux/linux-6.6/include/net/ |
H A D | sch_generic.h | 816 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function 864 qdisc_pkt_len(skb), in bstats_update() 883 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec() 889 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec() 895 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc() 901 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc() 1070 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
|