/linux/net/sched/ |
H A D | sch_skbprio.c | 87 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 110 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue() 119 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue() 154 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
|
H A D | sch_fq_codel.c | 169 len += qdisc_pkt_len(skb); in fq_codel_drop() 206 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue() 224 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue() 265 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func() 268 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 304 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue() 316 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue() 447 q->cstats.drop_len += qdisc_pkt_len(skb); in fq_codel_change()
|
H A D | sch_codel.c | 45 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func() 65 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue() 151 dropped += qdisc_pkt_len(skb); in codel_change()
|
H A D | sch_tbf.c | 211 unsigned int len = 0, prev_len = qdisc_pkt_len(skb), seg_len; in tbf_segment() 249 unsigned int len = qdisc_pkt_len(skb); in tbf_enqueue() 252 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue() 286 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
|
H A D | sch_fq_pie.c | 181 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_enqueue() 262 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_dequeue() 369 len_dropped += qdisc_pkt_len(skb); in fq_pie_change()
|
H A D | sch_drr.c | 335 unsigned int len = qdisc_pkt_len(skb); in drr_enqueue() 386 len = qdisc_pkt_len(skb); in drr_dequeue()
|
H A D | sch_choke.c | 128 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx() 393 dropped += qdisc_pkt_len(skb); in choke_change()
|
H A D | sch_netem.c | 456 unsigned int prev_len = qdisc_pkt_len(skb); in netem_enqueue() 598 delay += packet_time_ns(qdisc_pkt_len(skb), q); in netem_enqueue() 736 q->slot.bytes_left -= qdisc_pkt_len(skb); in netem_dequeue() 743 unsigned int pkt_len = qdisc_pkt_len(skb); in netem_dequeue()
|
H A D | sch_hhf.c | 289 pkt_len = qdisc_pkt_len(skb); in hhf_classify() 458 bucket->deficit -= qdisc_pkt_len(skb); in hhf_dequeue()
|
H A D | sch_cake.c | 1398 u32 len = qdisc_pkt_len(skb); in cake_overhead() 1580 len = qdisc_pkt_len(skb); in cake_drop() 1742 int len = qdisc_pkt_len(skb); in cake_enqueue() 1830 b->bytes += qdisc_pkt_len(ack); in cake_enqueue() 1831 len -= qdisc_pkt_len(ack); in cake_enqueue() 1836 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(ack)); in cake_enqueue() 1946 len = qdisc_pkt_len(skb); in cake_dequeue_one() 2173 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in cake_dequeue()
|
H A D | sch_fifo.c | 22 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in bfifo_enqueue()
|
H A D | sch_hfsc.c | 841 len = qdisc_pkt_len(skb); in qdisc_peek_len() 1540 unsigned int len = qdisc_pkt_len(skb); in hfsc_enqueue() 1627 update_vf(cl, qdisc_pkt_len(skb), cur_time); in hfsc_dequeue() 1629 cl->cl_cumul += qdisc_pkt_len(skb); in hfsc_dequeue()
|
H A D | sch_ets.c | 413 unsigned int len = qdisc_pkt_len(skb); in ets_qdisc_enqueue() 482 len = qdisc_pkt_len(skb); in ets_qdisc_dequeue()
|
H A D | sch_prio.c | 71 unsigned int len = qdisc_pkt_len(skb); in prio_enqueue()
|
H A D | sch_taprio.c | 337 packet_transmit_time = length_to_duration(q, qdisc_pkt_len(skb)); in find_entry_to_transmit() 491 len = qdisc_pkt_len(skb); in get_packet_txtime() 581 unsigned int slen = 0, numsegs = 0, len = qdisc_pkt_len(skb); in taprio_enqueue_segmented() 730 len = qdisc_pkt_len(skb); in taprio_dequeue_from_txq()
|
H A D | sch_teql.c | 311 unsigned int length = qdisc_pkt_len(skb); in teql_master_xmit()
|
H A D | sch_pie.c | 197 dropped += qdisc_pkt_len(skb); in pie_change()
|
H A D | sch_fq.c | 726 plen = qdisc_pkt_len(skb); in fq_dequeue() 1137 drop_len += qdisc_pkt_len(skb); in fq_change()
|
H A D | sch_sfb.c | 284 unsigned int len = qdisc_pkt_len(skb); in sfb_enqueue()
|
H A D | sch_generic.c | 741 unsigned int pkt_len = qdisc_pkt_len(skb); in pfifo_fast_enqueue()
|
/linux/include/net/ |
H A D | sch_generic.h | 820 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function 867 qdisc_pkt_len(skb), in bstats_update() 886 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec() 892 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec() 898 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc() 904 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc() 1104 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
|
/linux/drivers/s390/net/ |
H A D | qeth_core_main.c | 1364 unsigned int bytes = qdisc_pkt_len(skb); in qeth_tx_complete_buf() 4145 unsigned int bytes = qdisc_pkt_len(skb); in __qeth_xmit() 4279 buffer->bytes += qdisc_pkt_len(skb); in qeth_do_send_packet()
|