xref: /freebsd/sys/contrib/dev/mediatek/mt76/wed.c (revision 8ba4d145d351db26e07695b8e90697398c5dfec2)
1*8ba4d145SBjoern A. Zeeb // SPDX-License-Identifier: ISC
2*8ba4d145SBjoern A. Zeeb /*
3*8ba4d145SBjoern A. Zeeb  * Copyright (C) 2023 Lorenzo Bianconi <lorenzo@kernel.org>
4*8ba4d145SBjoern A. Zeeb  */
5*8ba4d145SBjoern A. Zeeb 
6*8ba4d145SBjoern A. Zeeb #include "mt76.h"
7*8ba4d145SBjoern A. Zeeb #include "dma.h"
8*8ba4d145SBjoern A. Zeeb 
mt76_wed_release_rx_buf(struct mtk_wed_device * wed)9*8ba4d145SBjoern A. Zeeb void mt76_wed_release_rx_buf(struct mtk_wed_device *wed)
10*8ba4d145SBjoern A. Zeeb {
11*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *dev = container_of(wed, struct mt76_dev, mmio.wed);
12*8ba4d145SBjoern A. Zeeb 	int i;
13*8ba4d145SBjoern A. Zeeb 
14*8ba4d145SBjoern A. Zeeb 	for (i = 0; i < dev->rx_token_size; i++) {
15*8ba4d145SBjoern A. Zeeb 		struct mt76_txwi_cache *t;
16*8ba4d145SBjoern A. Zeeb 
17*8ba4d145SBjoern A. Zeeb 		t = mt76_rx_token_release(dev, i);
18*8ba4d145SBjoern A. Zeeb 		if (!t || !t->ptr)
19*8ba4d145SBjoern A. Zeeb 			continue;
20*8ba4d145SBjoern A. Zeeb 
21*8ba4d145SBjoern A. Zeeb 		mt76_put_page_pool_buf(t->ptr, false);
22*8ba4d145SBjoern A. Zeeb 		t->ptr = NULL;
23*8ba4d145SBjoern A. Zeeb 
24*8ba4d145SBjoern A. Zeeb 		mt76_put_rxwi(dev, t);
25*8ba4d145SBjoern A. Zeeb 	}
26*8ba4d145SBjoern A. Zeeb 
27*8ba4d145SBjoern A. Zeeb 	mt76_free_pending_rxwi(dev);
28*8ba4d145SBjoern A. Zeeb }
29*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_release_rx_buf);
30*8ba4d145SBjoern A. Zeeb 
31*8ba4d145SBjoern A. Zeeb #ifdef CONFIG_NET_MEDIATEK_SOC_WED
mt76_wed_init_rx_buf(struct mtk_wed_device * wed,int size)32*8ba4d145SBjoern A. Zeeb u32 mt76_wed_init_rx_buf(struct mtk_wed_device *wed, int size)
33*8ba4d145SBjoern A. Zeeb {
34*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *dev = container_of(wed, struct mt76_dev, mmio.wed);
35*8ba4d145SBjoern A. Zeeb 	struct mtk_wed_bm_desc *desc = wed->rx_buf_ring.desc;
36*8ba4d145SBjoern A. Zeeb 	struct mt76_queue *q = &dev->q_rx[MT_RXQ_MAIN];
37*8ba4d145SBjoern A. Zeeb 	int i, len = SKB_WITH_OVERHEAD(q->buf_size);
38*8ba4d145SBjoern A. Zeeb 	struct mt76_txwi_cache *t = NULL;
39*8ba4d145SBjoern A. Zeeb 
40*8ba4d145SBjoern A. Zeeb 	for (i = 0; i < size; i++) {
41*8ba4d145SBjoern A. Zeeb 		enum dma_data_direction dir;
42*8ba4d145SBjoern A. Zeeb 		dma_addr_t addr;
43*8ba4d145SBjoern A. Zeeb 		u32 offset;
44*8ba4d145SBjoern A. Zeeb 		int token;
45*8ba4d145SBjoern A. Zeeb 		void *buf;
46*8ba4d145SBjoern A. Zeeb 
47*8ba4d145SBjoern A. Zeeb 		t = mt76_get_rxwi(dev);
48*8ba4d145SBjoern A. Zeeb 		if (!t)
49*8ba4d145SBjoern A. Zeeb 			goto unmap;
50*8ba4d145SBjoern A. Zeeb 
51*8ba4d145SBjoern A. Zeeb 		buf = mt76_get_page_pool_buf(q, &offset, q->buf_size);
52*8ba4d145SBjoern A. Zeeb 		if (!buf)
53*8ba4d145SBjoern A. Zeeb 			goto unmap;
54*8ba4d145SBjoern A. Zeeb 
55*8ba4d145SBjoern A. Zeeb 		addr = page_pool_get_dma_addr(virt_to_head_page(buf)) + offset;
56*8ba4d145SBjoern A. Zeeb 		dir = page_pool_get_dma_dir(q->page_pool);
57*8ba4d145SBjoern A. Zeeb 		dma_sync_single_for_device(dev->dma_dev, addr, len, dir);
58*8ba4d145SBjoern A. Zeeb 
59*8ba4d145SBjoern A. Zeeb 		desc->buf0 = cpu_to_le32(addr);
60*8ba4d145SBjoern A. Zeeb 		token = mt76_rx_token_consume(dev, buf, t, addr);
61*8ba4d145SBjoern A. Zeeb 		if (token < 0) {
62*8ba4d145SBjoern A. Zeeb 			mt76_put_page_pool_buf(buf, false);
63*8ba4d145SBjoern A. Zeeb 			goto unmap;
64*8ba4d145SBjoern A. Zeeb 		}
65*8ba4d145SBjoern A. Zeeb 
66*8ba4d145SBjoern A. Zeeb 		token = FIELD_PREP(MT_DMA_CTL_TOKEN, token);
67*8ba4d145SBjoern A. Zeeb #ifdef CONFIG_ARCH_DMA_ADDR_T_64BIT
68*8ba4d145SBjoern A. Zeeb 		token |= FIELD_PREP(MT_DMA_CTL_SDP0_H, addr >> 32);
69*8ba4d145SBjoern A. Zeeb #endif
70*8ba4d145SBjoern A. Zeeb 		desc->token |= cpu_to_le32(token);
71*8ba4d145SBjoern A. Zeeb 		desc++;
72*8ba4d145SBjoern A. Zeeb 	}
73*8ba4d145SBjoern A. Zeeb 
74*8ba4d145SBjoern A. Zeeb 	return 0;
75*8ba4d145SBjoern A. Zeeb 
76*8ba4d145SBjoern A. Zeeb unmap:
77*8ba4d145SBjoern A. Zeeb 	if (t)
78*8ba4d145SBjoern A. Zeeb 		mt76_put_rxwi(dev, t);
79*8ba4d145SBjoern A. Zeeb 	mt76_wed_release_rx_buf(wed);
80*8ba4d145SBjoern A. Zeeb 
81*8ba4d145SBjoern A. Zeeb 	return -ENOMEM;
82*8ba4d145SBjoern A. Zeeb }
83*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_init_rx_buf);
84*8ba4d145SBjoern A. Zeeb 
mt76_wed_offload_enable(struct mtk_wed_device * wed)85*8ba4d145SBjoern A. Zeeb int mt76_wed_offload_enable(struct mtk_wed_device *wed)
86*8ba4d145SBjoern A. Zeeb {
87*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *dev = container_of(wed, struct mt76_dev, mmio.wed);
88*8ba4d145SBjoern A. Zeeb 
89*8ba4d145SBjoern A. Zeeb 	spin_lock_bh(&dev->token_lock);
90*8ba4d145SBjoern A. Zeeb 	dev->token_size = wed->wlan.token_start;
91*8ba4d145SBjoern A. Zeeb 	spin_unlock_bh(&dev->token_lock);
92*8ba4d145SBjoern A. Zeeb 
93*8ba4d145SBjoern A. Zeeb 	return !wait_event_timeout(dev->tx_wait, !dev->wed_token_count, HZ);
94*8ba4d145SBjoern A. Zeeb }
95*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_offload_enable);
96*8ba4d145SBjoern A. Zeeb 
mt76_wed_dma_setup(struct mt76_dev * dev,struct mt76_queue * q,bool reset)97*8ba4d145SBjoern A. Zeeb int mt76_wed_dma_setup(struct mt76_dev *dev, struct mt76_queue *q, bool reset)
98*8ba4d145SBjoern A. Zeeb {
99*8ba4d145SBjoern A. Zeeb 	int ret = 0, type, ring;
100*8ba4d145SBjoern A. Zeeb 	u16 flags;
101*8ba4d145SBjoern A. Zeeb 
102*8ba4d145SBjoern A. Zeeb 	if (!q || !q->ndesc)
103*8ba4d145SBjoern A. Zeeb 		return -EINVAL;
104*8ba4d145SBjoern A. Zeeb 
105*8ba4d145SBjoern A. Zeeb 	flags = q->flags;
106*8ba4d145SBjoern A. Zeeb 	if (!q->wed || !mtk_wed_device_active(q->wed))
107*8ba4d145SBjoern A. Zeeb 		q->flags &= ~MT_QFLAG_WED;
108*8ba4d145SBjoern A. Zeeb 
109*8ba4d145SBjoern A. Zeeb 	if (!(q->flags & MT_QFLAG_WED))
110*8ba4d145SBjoern A. Zeeb 		return 0;
111*8ba4d145SBjoern A. Zeeb 
112*8ba4d145SBjoern A. Zeeb 	type = FIELD_GET(MT_QFLAG_WED_TYPE, q->flags);
113*8ba4d145SBjoern A. Zeeb 	ring = FIELD_GET(MT_QFLAG_WED_RING, q->flags);
114*8ba4d145SBjoern A. Zeeb 
115*8ba4d145SBjoern A. Zeeb 	switch (type) {
116*8ba4d145SBjoern A. Zeeb 	case MT76_WED_Q_TX:
117*8ba4d145SBjoern A. Zeeb 		ret = mtk_wed_device_tx_ring_setup(q->wed, ring, q->regs,
118*8ba4d145SBjoern A. Zeeb 						   reset);
119*8ba4d145SBjoern A. Zeeb 		if (!ret)
120*8ba4d145SBjoern A. Zeeb 			q->wed_regs = q->wed->tx_ring[ring].reg_base;
121*8ba4d145SBjoern A. Zeeb 		break;
122*8ba4d145SBjoern A. Zeeb 	case MT76_WED_Q_TXFREE:
123*8ba4d145SBjoern A. Zeeb 		/* WED txfree queue needs ring to be initialized before setup */
124*8ba4d145SBjoern A. Zeeb 		q->flags = 0;
125*8ba4d145SBjoern A. Zeeb 		mt76_dma_queue_reset(dev, q);
126*8ba4d145SBjoern A. Zeeb 		mt76_dma_rx_fill(dev, q, false);
127*8ba4d145SBjoern A. Zeeb 
128*8ba4d145SBjoern A. Zeeb 		ret = mtk_wed_device_txfree_ring_setup(q->wed, q->regs);
129*8ba4d145SBjoern A. Zeeb 		if (!ret)
130*8ba4d145SBjoern A. Zeeb 			q->wed_regs = q->wed->txfree_ring.reg_base;
131*8ba4d145SBjoern A. Zeeb 		break;
132*8ba4d145SBjoern A. Zeeb 	case MT76_WED_Q_RX:
133*8ba4d145SBjoern A. Zeeb 		ret = mtk_wed_device_rx_ring_setup(q->wed, ring, q->regs,
134*8ba4d145SBjoern A. Zeeb 						   reset);
135*8ba4d145SBjoern A. Zeeb 		if (!ret)
136*8ba4d145SBjoern A. Zeeb 			q->wed_regs = q->wed->rx_ring[ring].reg_base;
137*8ba4d145SBjoern A. Zeeb 		break;
138*8ba4d145SBjoern A. Zeeb 	case MT76_WED_RRO_Q_DATA:
139*8ba4d145SBjoern A. Zeeb 		q->flags &= ~MT_QFLAG_WED;
140*8ba4d145SBjoern A. Zeeb 		__mt76_dma_queue_reset(dev, q, false);
141*8ba4d145SBjoern A. Zeeb 		mtk_wed_device_rro_rx_ring_setup(q->wed, ring, q->regs);
142*8ba4d145SBjoern A. Zeeb 		q->head = q->ndesc - 1;
143*8ba4d145SBjoern A. Zeeb 		q->queued = q->head;
144*8ba4d145SBjoern A. Zeeb 		break;
145*8ba4d145SBjoern A. Zeeb 	case MT76_WED_RRO_Q_MSDU_PG:
146*8ba4d145SBjoern A. Zeeb 		q->flags &= ~MT_QFLAG_WED;
147*8ba4d145SBjoern A. Zeeb 		__mt76_dma_queue_reset(dev, q, false);
148*8ba4d145SBjoern A. Zeeb 		mtk_wed_device_msdu_pg_rx_ring_setup(q->wed, ring, q->regs);
149*8ba4d145SBjoern A. Zeeb 		q->head = q->ndesc - 1;
150*8ba4d145SBjoern A. Zeeb 		q->queued = q->head;
151*8ba4d145SBjoern A. Zeeb 		break;
152*8ba4d145SBjoern A. Zeeb 	case MT76_WED_RRO_Q_IND:
153*8ba4d145SBjoern A. Zeeb 		q->flags &= ~MT_QFLAG_WED;
154*8ba4d145SBjoern A. Zeeb 		mt76_dma_queue_reset(dev, q);
155*8ba4d145SBjoern A. Zeeb 		mt76_dma_rx_fill(dev, q, false);
156*8ba4d145SBjoern A. Zeeb 		mtk_wed_device_ind_rx_ring_setup(q->wed, q->regs);
157*8ba4d145SBjoern A. Zeeb 		break;
158*8ba4d145SBjoern A. Zeeb 	default:
159*8ba4d145SBjoern A. Zeeb 		ret = -EINVAL;
160*8ba4d145SBjoern A. Zeeb 		break;
161*8ba4d145SBjoern A. Zeeb 	}
162*8ba4d145SBjoern A. Zeeb 	q->flags = flags;
163*8ba4d145SBjoern A. Zeeb 
164*8ba4d145SBjoern A. Zeeb 	return ret;
165*8ba4d145SBjoern A. Zeeb }
166*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_dma_setup);
167*8ba4d145SBjoern A. Zeeb #endif /*CONFIG_NET_MEDIATEK_SOC_WED */
168*8ba4d145SBjoern A. Zeeb 
mt76_wed_offload_disable(struct mtk_wed_device * wed)169*8ba4d145SBjoern A. Zeeb void mt76_wed_offload_disable(struct mtk_wed_device *wed)
170*8ba4d145SBjoern A. Zeeb {
171*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *dev = container_of(wed, struct mt76_dev, mmio.wed);
172*8ba4d145SBjoern A. Zeeb 
173*8ba4d145SBjoern A. Zeeb 	spin_lock_bh(&dev->token_lock);
174*8ba4d145SBjoern A. Zeeb 	dev->token_size = dev->drv->token_size;
175*8ba4d145SBjoern A. Zeeb 	spin_unlock_bh(&dev->token_lock);
176*8ba4d145SBjoern A. Zeeb }
177*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_offload_disable);
178*8ba4d145SBjoern A. Zeeb 
mt76_wed_reset_complete(struct mtk_wed_device * wed)179*8ba4d145SBjoern A. Zeeb void mt76_wed_reset_complete(struct mtk_wed_device *wed)
180*8ba4d145SBjoern A. Zeeb {
181*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *dev = container_of(wed, struct mt76_dev, mmio.wed);
182*8ba4d145SBjoern A. Zeeb 
183*8ba4d145SBjoern A. Zeeb 	complete(&dev->mmio.wed_reset_complete);
184*8ba4d145SBjoern A. Zeeb }
185*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_reset_complete);
186*8ba4d145SBjoern A. Zeeb 
mt76_wed_net_setup_tc(struct ieee80211_hw * hw,struct ieee80211_vif * vif,struct net_device * netdev,enum tc_setup_type type,void * type_data)187*8ba4d145SBjoern A. Zeeb int mt76_wed_net_setup_tc(struct ieee80211_hw *hw, struct ieee80211_vif *vif,
188*8ba4d145SBjoern A. Zeeb 			  struct net_device *netdev, enum tc_setup_type type,
189*8ba4d145SBjoern A. Zeeb 			  void *type_data)
190*8ba4d145SBjoern A. Zeeb {
191*8ba4d145SBjoern A. Zeeb 	struct mt76_phy *phy = hw->priv;
192*8ba4d145SBjoern A. Zeeb 	struct mtk_wed_device *wed = &phy->dev->mmio.wed;
193*8ba4d145SBjoern A. Zeeb 
194*8ba4d145SBjoern A. Zeeb 	if (!mtk_wed_device_active(wed))
195*8ba4d145SBjoern A. Zeeb 		return -EOPNOTSUPP;
196*8ba4d145SBjoern A. Zeeb 
197*8ba4d145SBjoern A. Zeeb 	return mtk_wed_device_setup_tc(wed, netdev, type, type_data);
198*8ba4d145SBjoern A. Zeeb }
199*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_net_setup_tc);
200*8ba4d145SBjoern A. Zeeb 
mt76_wed_dma_reset(struct mt76_dev * dev)201*8ba4d145SBjoern A. Zeeb void mt76_wed_dma_reset(struct mt76_dev *dev)
202*8ba4d145SBjoern A. Zeeb {
203*8ba4d145SBjoern A. Zeeb 	struct mt76_mmio *mmio = &dev->mmio;
204*8ba4d145SBjoern A. Zeeb 
205*8ba4d145SBjoern A. Zeeb 	if (!test_bit(MT76_STATE_WED_RESET, &dev->phy.state))
206*8ba4d145SBjoern A. Zeeb 		return;
207*8ba4d145SBjoern A. Zeeb 
208*8ba4d145SBjoern A. Zeeb 	complete(&mmio->wed_reset);
209*8ba4d145SBjoern A. Zeeb 
210*8ba4d145SBjoern A. Zeeb 	if (!wait_for_completion_timeout(&mmio->wed_reset_complete, 3 * HZ))
211*8ba4d145SBjoern A. Zeeb 		dev_err(dev->dev, "wed reset complete timeout\n");
212*8ba4d145SBjoern A. Zeeb }
213*8ba4d145SBjoern A. Zeeb EXPORT_SYMBOL_GPL(mt76_wed_dma_reset);
214