Home
last modified time | relevance | path

Searched refs:qdisc_pkt_len (Results 1 – 25 of 30) sorted by relevance

12

/linux/net/sched/
H A Dsch_skbprio.c87 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
110 q->qstats[prio].backlog += qdisc_pkt_len(skb); in skbprio_enqueue()
119 q->qstats[lp].backlog -= qdisc_pkt_len(to_drop); in skbprio_enqueue()
152 q->qstats[q->highest_prio].backlog -= qdisc_pkt_len(skb); in skbprio_dequeue()
H A Dsch_fq_codel.c169 len += qdisc_pkt_len(skb); in fq_codel_drop()
207 q->backlogs[idx] += qdisc_pkt_len(skb); in fq_codel_enqueue()
225 pkt_len = qdisc_pkt_len(skb); in fq_codel_enqueue()
266 q->backlogs[flow - q->flows] -= qdisc_pkt_len(skb); in dequeue_func()
269 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
305 &flow->cvars, &q->cstats, qdisc_pkt_len, in fq_codel_dequeue()
317 flow->deficit -= qdisc_pkt_len(skb); in fq_codel_dequeue()
451 dropped_bytes += qdisc_pkt_len(skb); in fq_codel_change()
H A Dsch_sfq.c300 len = qdisc_pkt_len(skb); in sfq_drop()
427 delta = qdisc_pkt_len(head) - qdisc_pkt_len(skb); in sfq_enqueue()
439 slot->backlog += qdisc_pkt_len(skb); in sfq_enqueue()
466 qdisc_tree_reduce_backlog(sch, 0, dropped - qdisc_pkt_len(skb)); in sfq_enqueue()
500 slot->backlog -= qdisc_pkt_len(skb); in sfq_dequeue()
511 slot->allot -= qdisc_pkt_len(skb); in sfq_dequeue()
568 drop_len += qdisc_pkt_len(skb); in sfq_rehash()
584 slot->backlog += qdisc_pkt_len(skb); in sfq_rehash()
H A Dsch_codel.c45 sch->qstats.backlog -= qdisc_pkt_len(skb); in dequeue_func()
65 &q->stats, qdisc_pkt_len, codel_get_enqueue_time, in codel_qdisc_dequeue()
152 dropped_bytes += qdisc_pkt_len(skb); in codel_change()
H A Dsch_tbf.c211 unsigned int len = 0, prev_len = qdisc_pkt_len(skb), seg_len; in tbf_segment()
250 unsigned int len = qdisc_pkt_len(skb); in tbf_enqueue()
253 if (qdisc_pkt_len(skb) > q->max_size) { in tbf_enqueue()
287 unsigned int len = qdisc_pkt_len(skb); in tbf_dequeue()
H A Dsch_gred.c182 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in gred_enqueue()
207 q->bytesin += qdisc_pkt_len(skb); in gred_enqueue()
247 if (gred_backlog(t, q, sch) + qdisc_pkt_len(skb) <= q->limit) { in gred_enqueue()
248 q->backlog += qdisc_pkt_len(skb); in gred_enqueue()
276 q->backlog -= qdisc_pkt_len(skb); in gred_dequeue()
H A Dact_police.c239 len = qdisc_pkt_len(skb); in tcf_police_mtu_check()
283 qdisc_pkt_len(skb)); in tcf_police_act()
289 toks -= (s64)psched_l2t_ns(&p->rate, qdisc_pkt_len(skb)); in tcf_police_act()
H A Dsch_hhf.c289 pkt_len = qdisc_pkt_len(skb); in hhf_classify()
458 bucket->deficit -= qdisc_pkt_len(skb); in hhf_dequeue()
571 dropped_bytes += qdisc_pkt_len(skb); in hhf_change()
H A Dsch_fq_pie.c184 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_enqueue()
264 pkt_len = qdisc_pkt_len(skb); in fq_pie_qdisc_dequeue()
374 dropped_bytes += qdisc_pkt_len(skb); in fq_pie_change()
H A Dsch_choke.c128 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in choke_drop_by_idx()
393 dropped += qdisc_pkt_len(skb); in choke_change()
H A Dsch_drr.c341 unsigned int len = qdisc_pkt_len(skb); in drr_enqueue()
390 len = qdisc_pkt_len(skb); in drr_dequeue()
H A Dsch_netem.c457 unsigned int prev_len = qdisc_pkt_len(skb); in netem_enqueue()
600 delay += packet_time_ns(qdisc_pkt_len(skb), q); in netem_enqueue()
738 q->slot.bytes_left -= qdisc_pkt_len(skb); in netem_dequeue()
745 unsigned int pkt_len = qdisc_pkt_len(skb); in netem_dequeue()
H A Dsch_fifo.c22 if (likely(sch->qstats.backlog + qdisc_pkt_len(skb) <= in bfifo_enqueue()
H A Dsch_dualpi2.c468 orig_len = qdisc_pkt_len(skb); in dualpi2_qdisc_enqueue()
547 *credit_change *= qdisc_pkt_len(skb); in dequeue_packet()
579 q->deferred_drops_len += qdisc_pkt_len(skb); in drop_and_retry()
H A Dsch_ets.c424 unsigned int len = qdisc_pkt_len(skb); in ets_qdisc_enqueue()
491 len = qdisc_pkt_len(skb); in ets_qdisc_dequeue()
H A Dsch_hfsc.c1540 unsigned int len = qdisc_pkt_len(skb); in hfsc_enqueue()
1627 update_vf(cl, qdisc_pkt_len(skb), cur_time); in hfsc_dequeue()
1629 cl->cl_cumul += qdisc_pkt_len(skb); in hfsc_dequeue()
H A Dsch_cake.c1417 u32 len = qdisc_pkt_len(skb); in cake_overhead()
1595 len = qdisc_pkt_len(skb); in cake_drop()
1757 int len = qdisc_pkt_len(skb), ret; in cake_enqueue()
1848 ack_pkt_len = qdisc_pkt_len(ack); in cake_enqueue()
1978 len = qdisc_pkt_len(skb); in cake_dequeue_one()
2238 qdisc_tree_reduce_backlog(sch, 1, qdisc_pkt_len(skb)); in cake_dequeue()
H A Dsch_prio.c71 unsigned int len = qdisc_pkt_len(skb); in prio_enqueue()
H A Dsch_teql.c313 unsigned int length = qdisc_pkt_len(skb); in teql_master_xmit()
H A Dsch_taprio.c342 packet_transmit_time = length_to_duration(q, qdisc_pkt_len(skb)); in find_entry_to_transmit()
496 len = qdisc_pkt_len(skb); in get_packet_txtime()
586 unsigned int slen = 0, numsegs = 0, len = qdisc_pkt_len(skb); in taprio_enqueue_segmented()
736 len = qdisc_pkt_len(skb); in taprio_dequeue_from_txq()
H A Dsch_pie.c203 dropped_bytes += qdisc_pkt_len(skb); in pie_change()
H A Dsch_htb.c623 unsigned int len = qdisc_pkt_len(skb); in htb_enqueue()
702 int bytes = qdisc_pkt_len(skb); in htb_charge_class()
924 cl->leaf.deficit[level] -= qdisc_pkt_len(skb); in htb_dequeue_tree()
H A Dsch_qfq.c1023 *len = qdisc_pkt_len(skb); in qfq_peek_skb()
1230 unsigned int len = qdisc_pkt_len(skb), gso_segs; in qfq_enqueue()
/linux/include/net/
H A Dsch_generic.h885 static inline unsigned int qdisc_pkt_len(const struct sk_buff *skb) in qdisc_pkt_len() function
940 _bstats_update(bstats, qdisc_pkt_len(skb), qdisc_pkt_segs(skb)); in bstats_update()
958 sch->qstats.backlog -= qdisc_pkt_len(skb); in qdisc_qstats_backlog_dec()
964 this_cpu_sub(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_dec()
970 sch->qstats.backlog += qdisc_pkt_len(skb); in qdisc_qstats_backlog_inc()
976 this_cpu_add(sch->cpu_qstats->backlog, qdisc_pkt_len(skb)); in qdisc_qstats_cpu_backlog_inc()
1207 unsigned int len = qdisc_pkt_len(skb); in __qdisc_queue_drop_head()
H A Dpkt_sched.h306 len = qdisc_pkt_len(skb); in qdisc_peek_len()

12