xref: /freebsd/sys/contrib/dev/mediatek/mt76/mt7925/pci.c (revision 8ba4d145d351db26e07695b8e90697398c5dfec2)
1*8ba4d145SBjoern A. Zeeb // SPDX-License-Identifier: ISC
2*8ba4d145SBjoern A. Zeeb /* Copyright (C) 2023 MediaTek Inc. */
3*8ba4d145SBjoern A. Zeeb 
4*8ba4d145SBjoern A. Zeeb #include <linux/kernel.h>
5*8ba4d145SBjoern A. Zeeb #include <linux/module.h>
6*8ba4d145SBjoern A. Zeeb #include <linux/pci.h>
7*8ba4d145SBjoern A. Zeeb 
8*8ba4d145SBjoern A. Zeeb #include "mt7925.h"
9*8ba4d145SBjoern A. Zeeb #include "mac.h"
10*8ba4d145SBjoern A. Zeeb #include "mcu.h"
11*8ba4d145SBjoern A. Zeeb #include "../dma.h"
12*8ba4d145SBjoern A. Zeeb 
13*8ba4d145SBjoern A. Zeeb static const struct pci_device_id mt7925_pci_device_table[] = {
14*8ba4d145SBjoern A. Zeeb 	{ PCI_DEVICE(PCI_VENDOR_ID_MEDIATEK, 0x7925),
15*8ba4d145SBjoern A. Zeeb 		.driver_data = (kernel_ulong_t)MT7925_FIRMWARE_WM },
16*8ba4d145SBjoern A. Zeeb 	{ PCI_DEVICE(PCI_VENDOR_ID_MEDIATEK, 0x0717),
17*8ba4d145SBjoern A. Zeeb 		.driver_data = (kernel_ulong_t)MT7925_FIRMWARE_WM },
18*8ba4d145SBjoern A. Zeeb 	{ },
19*8ba4d145SBjoern A. Zeeb };
20*8ba4d145SBjoern A. Zeeb 
21*8ba4d145SBjoern A. Zeeb static bool mt7925_disable_aspm;
22*8ba4d145SBjoern A. Zeeb module_param_named(disable_aspm, mt7925_disable_aspm, bool, 0644);
23*8ba4d145SBjoern A. Zeeb MODULE_PARM_DESC(disable_aspm, "disable PCI ASPM support");
24*8ba4d145SBjoern A. Zeeb 
mt7925e_init_reset(struct mt792x_dev * dev)25*8ba4d145SBjoern A. Zeeb static int mt7925e_init_reset(struct mt792x_dev *dev)
26*8ba4d145SBjoern A. Zeeb {
27*8ba4d145SBjoern A. Zeeb 	return mt792x_wpdma_reset(dev, true);
28*8ba4d145SBjoern A. Zeeb }
29*8ba4d145SBjoern A. Zeeb 
mt7925e_unregister_device(struct mt792x_dev * dev)30*8ba4d145SBjoern A. Zeeb static void mt7925e_unregister_device(struct mt792x_dev *dev)
31*8ba4d145SBjoern A. Zeeb {
32*8ba4d145SBjoern A. Zeeb 	int i;
33*8ba4d145SBjoern A. Zeeb 	struct mt76_connac_pm *pm = &dev->pm;
34*8ba4d145SBjoern A. Zeeb 
35*8ba4d145SBjoern A. Zeeb 	cancel_work_sync(&dev->init_work);
36*8ba4d145SBjoern A. Zeeb 	mt76_unregister_device(&dev->mt76);
37*8ba4d145SBjoern A. Zeeb 	mt76_for_each_q_rx(&dev->mt76, i)
38*8ba4d145SBjoern A. Zeeb 		napi_disable(&dev->mt76.napi[i]);
39*8ba4d145SBjoern A. Zeeb 	cancel_delayed_work_sync(&pm->ps_work);
40*8ba4d145SBjoern A. Zeeb 	cancel_work_sync(&pm->wake_work);
41*8ba4d145SBjoern A. Zeeb 	cancel_work_sync(&dev->reset_work);
42*8ba4d145SBjoern A. Zeeb 
43*8ba4d145SBjoern A. Zeeb 	mt7925_tx_token_put(dev);
44*8ba4d145SBjoern A. Zeeb 	__mt792x_mcu_drv_pmctrl(dev);
45*8ba4d145SBjoern A. Zeeb 	mt792x_dma_cleanup(dev);
46*8ba4d145SBjoern A. Zeeb 	mt792x_wfsys_reset(dev);
47*8ba4d145SBjoern A. Zeeb 	skb_queue_purge(&dev->mt76.mcu.res_q);
48*8ba4d145SBjoern A. Zeeb 
49*8ba4d145SBjoern A. Zeeb 	tasklet_disable(&dev->mt76.irq_tasklet);
50*8ba4d145SBjoern A. Zeeb }
51*8ba4d145SBjoern A. Zeeb 
mt7925_reg_remap_restore(struct mt792x_dev * dev)52*8ba4d145SBjoern A. Zeeb static void mt7925_reg_remap_restore(struct mt792x_dev *dev)
53*8ba4d145SBjoern A. Zeeb {
54*8ba4d145SBjoern A. Zeeb 	/* remap to ori status */
55*8ba4d145SBjoern A. Zeeb 	if (unlikely(dev->backup_l1)) {
56*8ba4d145SBjoern A. Zeeb 		dev->bus_ops->wr(&dev->mt76, MT_HIF_REMAP_L1, dev->backup_l1);
57*8ba4d145SBjoern A. Zeeb 		dev->backup_l1 = 0;
58*8ba4d145SBjoern A. Zeeb 	}
59*8ba4d145SBjoern A. Zeeb 
60*8ba4d145SBjoern A. Zeeb 	if (dev->backup_l2) {
61*8ba4d145SBjoern A. Zeeb 		dev->bus_ops->wr(&dev->mt76, MT_HIF_REMAP_L2, dev->backup_l2);
62*8ba4d145SBjoern A. Zeeb 		dev->backup_l2 = 0;
63*8ba4d145SBjoern A. Zeeb 	}
64*8ba4d145SBjoern A. Zeeb }
65*8ba4d145SBjoern A. Zeeb 
mt7925_reg_map_l1(struct mt792x_dev * dev,u32 addr)66*8ba4d145SBjoern A. Zeeb static u32 mt7925_reg_map_l1(struct mt792x_dev *dev, u32 addr)
67*8ba4d145SBjoern A. Zeeb {
68*8ba4d145SBjoern A. Zeeb 	u32 offset = FIELD_GET(MT_HIF_REMAP_L1_OFFSET, addr);
69*8ba4d145SBjoern A. Zeeb 	u32 base = FIELD_GET(MT_HIF_REMAP_L1_BASE, addr);
70*8ba4d145SBjoern A. Zeeb 
71*8ba4d145SBjoern A. Zeeb 	dev->backup_l1 = dev->bus_ops->rr(&dev->mt76, MT_HIF_REMAP_L1);
72*8ba4d145SBjoern A. Zeeb 
73*8ba4d145SBjoern A. Zeeb 	dev->bus_ops->rmw(&dev->mt76, MT_HIF_REMAP_L1,
74*8ba4d145SBjoern A. Zeeb 			  MT_HIF_REMAP_L1_MASK,
75*8ba4d145SBjoern A. Zeeb 			  FIELD_PREP(MT_HIF_REMAP_L1_MASK, base));
76*8ba4d145SBjoern A. Zeeb 
77*8ba4d145SBjoern A. Zeeb 	/* use read to push write */
78*8ba4d145SBjoern A. Zeeb 	dev->bus_ops->rr(&dev->mt76, MT_HIF_REMAP_L1);
79*8ba4d145SBjoern A. Zeeb 
80*8ba4d145SBjoern A. Zeeb 	return MT_HIF_REMAP_BASE_L1 + offset;
81*8ba4d145SBjoern A. Zeeb }
82*8ba4d145SBjoern A. Zeeb 
mt7925_reg_map_l2(struct mt792x_dev * dev,u32 addr)83*8ba4d145SBjoern A. Zeeb static u32 mt7925_reg_map_l2(struct mt792x_dev *dev, u32 addr)
84*8ba4d145SBjoern A. Zeeb {
85*8ba4d145SBjoern A. Zeeb 	u32 base = FIELD_GET(MT_HIF_REMAP_L1_BASE, MT_HIF_REMAP_BASE_L2);
86*8ba4d145SBjoern A. Zeeb 
87*8ba4d145SBjoern A. Zeeb 	dev->backup_l2 = dev->bus_ops->rr(&dev->mt76, MT_HIF_REMAP_L1);
88*8ba4d145SBjoern A. Zeeb 
89*8ba4d145SBjoern A. Zeeb 	dev->bus_ops->rmw(&dev->mt76, MT_HIF_REMAP_L1,
90*8ba4d145SBjoern A. Zeeb 			  MT_HIF_REMAP_L1_MASK,
91*8ba4d145SBjoern A. Zeeb 			  FIELD_PREP(MT_HIF_REMAP_L1_MASK, base));
92*8ba4d145SBjoern A. Zeeb 
93*8ba4d145SBjoern A. Zeeb 	dev->bus_ops->wr(&dev->mt76, MT_HIF_REMAP_L2, addr);
94*8ba4d145SBjoern A. Zeeb 	/* use read to push write */
95*8ba4d145SBjoern A. Zeeb 	dev->bus_ops->rr(&dev->mt76, MT_HIF_REMAP_L1);
96*8ba4d145SBjoern A. Zeeb 
97*8ba4d145SBjoern A. Zeeb 	return MT_HIF_REMAP_BASE_L1;
98*8ba4d145SBjoern A. Zeeb }
99*8ba4d145SBjoern A. Zeeb 
__mt7925_reg_addr(struct mt792x_dev * dev,u32 addr)100*8ba4d145SBjoern A. Zeeb static u32 __mt7925_reg_addr(struct mt792x_dev *dev, u32 addr)
101*8ba4d145SBjoern A. Zeeb {
102*8ba4d145SBjoern A. Zeeb 	static const struct mt76_connac_reg_map fixed_map[] = {
103*8ba4d145SBjoern A. Zeeb 		{ 0x830c0000, 0x000000, 0x0001000 }, /* WF_MCU_BUS_CR_REMAP */
104*8ba4d145SBjoern A. Zeeb 		{ 0x54000000, 0x002000, 0x0001000 }, /* WFDMA PCIE0 MCU DMA0 */
105*8ba4d145SBjoern A. Zeeb 		{ 0x55000000, 0x003000, 0x0001000 }, /* WFDMA PCIE0 MCU DMA1 */
106*8ba4d145SBjoern A. Zeeb 		{ 0x56000000, 0x004000, 0x0001000 }, /* WFDMA reserved */
107*8ba4d145SBjoern A. Zeeb 		{ 0x57000000, 0x005000, 0x0001000 }, /* WFDMA MCU wrap CR */
108*8ba4d145SBjoern A. Zeeb 		{ 0x58000000, 0x006000, 0x0001000 }, /* WFDMA PCIE1 MCU DMA0 (MEM_DMA) */
109*8ba4d145SBjoern A. Zeeb 		{ 0x59000000, 0x007000, 0x0001000 }, /* WFDMA PCIE1 MCU DMA1 */
110*8ba4d145SBjoern A. Zeeb 		{ 0x820c0000, 0x008000, 0x0004000 }, /* WF_UMAC_TOP (PLE) */
111*8ba4d145SBjoern A. Zeeb 		{ 0x820c8000, 0x00c000, 0x0002000 }, /* WF_UMAC_TOP (PSE) */
112*8ba4d145SBjoern A. Zeeb 		{ 0x820cc000, 0x00e000, 0x0002000 }, /* WF_UMAC_TOP (PP) */
113*8ba4d145SBjoern A. Zeeb 		{ 0x74030000, 0x010000, 0x0001000 }, /* PCIe MAC */
114*8ba4d145SBjoern A. Zeeb 		{ 0x820e0000, 0x020000, 0x0000400 }, /* WF_LMAC_TOP BN0 (WF_CFG) */
115*8ba4d145SBjoern A. Zeeb 		{ 0x820e1000, 0x020400, 0x0000200 }, /* WF_LMAC_TOP BN0 (WF_TRB) */
116*8ba4d145SBjoern A. Zeeb 		{ 0x820e2000, 0x020800, 0x0000400 }, /* WF_LMAC_TOP BN0 (WF_AGG) */
117*8ba4d145SBjoern A. Zeeb 		{ 0x820e3000, 0x020c00, 0x0000400 }, /* WF_LMAC_TOP BN0 (WF_ARB) */
118*8ba4d145SBjoern A. Zeeb 		{ 0x820e4000, 0x021000, 0x0000400 }, /* WF_LMAC_TOP BN0 (WF_TMAC) */
119*8ba4d145SBjoern A. Zeeb 		{ 0x820e5000, 0x021400, 0x0000800 }, /* WF_LMAC_TOP BN0 (WF_RMAC) */
120*8ba4d145SBjoern A. Zeeb 		{ 0x820ce000, 0x021c00, 0x0000200 }, /* WF_LMAC_TOP (WF_SEC) */
121*8ba4d145SBjoern A. Zeeb 		{ 0x820e7000, 0x021e00, 0x0000200 }, /* WF_LMAC_TOP BN0 (WF_DMA) */
122*8ba4d145SBjoern A. Zeeb 		{ 0x820cf000, 0x022000, 0x0001000 }, /* WF_LMAC_TOP (WF_PF) */
123*8ba4d145SBjoern A. Zeeb 		{ 0x820e9000, 0x023400, 0x0000200 }, /* WF_LMAC_TOP BN0 (WF_WTBLOFF) */
124*8ba4d145SBjoern A. Zeeb 		{ 0x820ea000, 0x024000, 0x0000200 }, /* WF_LMAC_TOP BN0 (WF_ETBF) */
125*8ba4d145SBjoern A. Zeeb 		{ 0x820eb000, 0x024200, 0x0000400 }, /* WF_LMAC_TOP BN0 (WF_LPON) */
126*8ba4d145SBjoern A. Zeeb 		{ 0x820ec000, 0x024600, 0x0000200 }, /* WF_LMAC_TOP BN0 (WF_INT) */
127*8ba4d145SBjoern A. Zeeb 		{ 0x820ed000, 0x024800, 0x0000800 }, /* WF_LMAC_TOP BN0 (WF_MIB) */
128*8ba4d145SBjoern A. Zeeb 		{ 0x820ca000, 0x026000, 0x0002000 }, /* WF_LMAC_TOP BN0 (WF_MUCOP) */
129*8ba4d145SBjoern A. Zeeb 		{ 0x820d0000, 0x030000, 0x0010000 }, /* WF_LMAC_TOP (WF_WTBLON) */
130*8ba4d145SBjoern A. Zeeb 		{ 0x40000000, 0x070000, 0x0010000 }, /* WF_UMAC_SYSRAM */
131*8ba4d145SBjoern A. Zeeb 		{ 0x00400000, 0x080000, 0x0010000 }, /* WF_MCU_SYSRAM */
132*8ba4d145SBjoern A. Zeeb 		{ 0x00410000, 0x090000, 0x0010000 }, /* WF_MCU_SYSRAM (configure register) */
133*8ba4d145SBjoern A. Zeeb 		{ 0x820f0000, 0x0a0000, 0x0000400 }, /* WF_LMAC_TOP BN1 (WF_CFG) */
134*8ba4d145SBjoern A. Zeeb 		{ 0x820f1000, 0x0a0600, 0x0000200 }, /* WF_LMAC_TOP BN1 (WF_TRB) */
135*8ba4d145SBjoern A. Zeeb 		{ 0x820f2000, 0x0a0800, 0x0000400 }, /* WF_LMAC_TOP BN1 (WF_AGG) */
136*8ba4d145SBjoern A. Zeeb 		{ 0x820f3000, 0x0a0c00, 0x0000400 }, /* WF_LMAC_TOP BN1 (WF_ARB) */
137*8ba4d145SBjoern A. Zeeb 		{ 0x820f4000, 0x0a1000, 0x0000400 }, /* WF_LMAC_TOP BN1 (WF_TMAC) */
138*8ba4d145SBjoern A. Zeeb 		{ 0x820f5000, 0x0a1400, 0x0000800 }, /* WF_LMAC_TOP BN1 (WF_RMAC) */
139*8ba4d145SBjoern A. Zeeb 		{ 0x820f7000, 0x0a1e00, 0x0000200 }, /* WF_LMAC_TOP BN1 (WF_DMA) */
140*8ba4d145SBjoern A. Zeeb 		{ 0x820f9000, 0x0a3400, 0x0000200 }, /* WF_LMAC_TOP BN1 (WF_WTBLOFF) */
141*8ba4d145SBjoern A. Zeeb 		{ 0x820fa000, 0x0a4000, 0x0000200 }, /* WF_LMAC_TOP BN1 (WF_ETBF) */
142*8ba4d145SBjoern A. Zeeb 		{ 0x820fb000, 0x0a4200, 0x0000400 }, /* WF_LMAC_TOP BN1 (WF_LPON) */
143*8ba4d145SBjoern A. Zeeb 		{ 0x820fc000, 0x0a4600, 0x0000200 }, /* WF_LMAC_TOP BN1 (WF_INT) */
144*8ba4d145SBjoern A. Zeeb 		{ 0x820fd000, 0x0a4800, 0x0000800 }, /* WF_LMAC_TOP BN1 (WF_MIB) */
145*8ba4d145SBjoern A. Zeeb 		{ 0x820c4000, 0x0a8000, 0x0004000 }, /* WF_LMAC_TOP BN1 (WF_MUCOP) */
146*8ba4d145SBjoern A. Zeeb 		{ 0x820b0000, 0x0ae000, 0x0001000 }, /* [APB2] WFSYS_ON */
147*8ba4d145SBjoern A. Zeeb 		{ 0x80020000, 0x0b0000, 0x0010000 }, /* WF_TOP_MISC_OFF */
148*8ba4d145SBjoern A. Zeeb 		{ 0x81020000, 0x0c0000, 0x0010000 }, /* WF_TOP_MISC_ON */
149*8ba4d145SBjoern A. Zeeb 		{ 0x7c020000, 0x0d0000, 0x0010000 }, /* CONN_INFRA, wfdma */
150*8ba4d145SBjoern A. Zeeb 		{ 0x7c060000, 0x0e0000, 0x0010000 }, /* CONN_INFRA, conn_host_csr_top */
151*8ba4d145SBjoern A. Zeeb 		{ 0x7c000000, 0x0f0000, 0x0010000 }, /* CONN_INFRA */
152*8ba4d145SBjoern A. Zeeb 		{ 0x70020000, 0x1f0000, 0x0010000 }, /* Reserved for CBTOP, can't switch */
153*8ba4d145SBjoern A. Zeeb 		{ 0x7c500000, 0x060000, 0x2000000 }, /* remap */
154*8ba4d145SBjoern A. Zeeb 		{ 0x0, 0x0, 0x0 } /* End */
155*8ba4d145SBjoern A. Zeeb 	};
156*8ba4d145SBjoern A. Zeeb 	int i;
157*8ba4d145SBjoern A. Zeeb 
158*8ba4d145SBjoern A. Zeeb 	if (addr < 0x200000)
159*8ba4d145SBjoern A. Zeeb 		return addr;
160*8ba4d145SBjoern A. Zeeb 
161*8ba4d145SBjoern A. Zeeb 	mt7925_reg_remap_restore(dev);
162*8ba4d145SBjoern A. Zeeb 
163*8ba4d145SBjoern A. Zeeb 	for (i = 0; i < ARRAY_SIZE(fixed_map); i++) {
164*8ba4d145SBjoern A. Zeeb 		u32 ofs;
165*8ba4d145SBjoern A. Zeeb 
166*8ba4d145SBjoern A. Zeeb 		if (addr < fixed_map[i].phys)
167*8ba4d145SBjoern A. Zeeb 			continue;
168*8ba4d145SBjoern A. Zeeb 
169*8ba4d145SBjoern A. Zeeb 		ofs = addr - fixed_map[i].phys;
170*8ba4d145SBjoern A. Zeeb 		if (ofs > fixed_map[i].size)
171*8ba4d145SBjoern A. Zeeb 			continue;
172*8ba4d145SBjoern A. Zeeb 
173*8ba4d145SBjoern A. Zeeb 		return fixed_map[i].maps + ofs;
174*8ba4d145SBjoern A. Zeeb 	}
175*8ba4d145SBjoern A. Zeeb 
176*8ba4d145SBjoern A. Zeeb 	if ((addr >= 0x18000000 && addr < 0x18c00000) ||
177*8ba4d145SBjoern A. Zeeb 	    (addr >= 0x70000000 && addr < 0x78000000) ||
178*8ba4d145SBjoern A. Zeeb 	    (addr >= 0x7c000000 && addr < 0x7c400000))
179*8ba4d145SBjoern A. Zeeb 		return mt7925_reg_map_l1(dev, addr);
180*8ba4d145SBjoern A. Zeeb 
181*8ba4d145SBjoern A. Zeeb 	return mt7925_reg_map_l2(dev, addr);
182*8ba4d145SBjoern A. Zeeb }
183*8ba4d145SBjoern A. Zeeb 
mt7925_rr(struct mt76_dev * mdev,u32 offset)184*8ba4d145SBjoern A. Zeeb static u32 mt7925_rr(struct mt76_dev *mdev, u32 offset)
185*8ba4d145SBjoern A. Zeeb {
186*8ba4d145SBjoern A. Zeeb 	struct mt792x_dev *dev = container_of(mdev, struct mt792x_dev, mt76);
187*8ba4d145SBjoern A. Zeeb 	u32 addr = __mt7925_reg_addr(dev, offset);
188*8ba4d145SBjoern A. Zeeb 
189*8ba4d145SBjoern A. Zeeb 	return dev->bus_ops->rr(mdev, addr);
190*8ba4d145SBjoern A. Zeeb }
191*8ba4d145SBjoern A. Zeeb 
mt7925_wr(struct mt76_dev * mdev,u32 offset,u32 val)192*8ba4d145SBjoern A. Zeeb static void mt7925_wr(struct mt76_dev *mdev, u32 offset, u32 val)
193*8ba4d145SBjoern A. Zeeb {
194*8ba4d145SBjoern A. Zeeb 	struct mt792x_dev *dev = container_of(mdev, struct mt792x_dev, mt76);
195*8ba4d145SBjoern A. Zeeb 	u32 addr = __mt7925_reg_addr(dev, offset);
196*8ba4d145SBjoern A. Zeeb 
197*8ba4d145SBjoern A. Zeeb 	dev->bus_ops->wr(mdev, addr, val);
198*8ba4d145SBjoern A. Zeeb }
199*8ba4d145SBjoern A. Zeeb 
mt7925_rmw(struct mt76_dev * mdev,u32 offset,u32 mask,u32 val)200*8ba4d145SBjoern A. Zeeb static u32 mt7925_rmw(struct mt76_dev *mdev, u32 offset, u32 mask, u32 val)
201*8ba4d145SBjoern A. Zeeb {
202*8ba4d145SBjoern A. Zeeb 	struct mt792x_dev *dev = container_of(mdev, struct mt792x_dev, mt76);
203*8ba4d145SBjoern A. Zeeb 	u32 addr = __mt7925_reg_addr(dev, offset);
204*8ba4d145SBjoern A. Zeeb 
205*8ba4d145SBjoern A. Zeeb 	return dev->bus_ops->rmw(mdev, addr, mask, val);
206*8ba4d145SBjoern A. Zeeb }
207*8ba4d145SBjoern A. Zeeb 
mt7925_dma_init(struct mt792x_dev * dev)208*8ba4d145SBjoern A. Zeeb static int mt7925_dma_init(struct mt792x_dev *dev)
209*8ba4d145SBjoern A. Zeeb {
210*8ba4d145SBjoern A. Zeeb 	int ret;
211*8ba4d145SBjoern A. Zeeb 
212*8ba4d145SBjoern A. Zeeb 	mt76_dma_attach(&dev->mt76);
213*8ba4d145SBjoern A. Zeeb 
214*8ba4d145SBjoern A. Zeeb 	ret = mt792x_dma_disable(dev, true);
215*8ba4d145SBjoern A. Zeeb 	if (ret)
216*8ba4d145SBjoern A. Zeeb 		return ret;
217*8ba4d145SBjoern A. Zeeb 
218*8ba4d145SBjoern A. Zeeb 	/* init tx queue */
219*8ba4d145SBjoern A. Zeeb 	ret = mt76_connac_init_tx_queues(dev->phy.mt76, MT7925_TXQ_BAND0,
220*8ba4d145SBjoern A. Zeeb 					 MT7925_TX_RING_SIZE,
221*8ba4d145SBjoern A. Zeeb 					 MT_TX_RING_BASE, NULL, 0);
222*8ba4d145SBjoern A. Zeeb 	if (ret)
223*8ba4d145SBjoern A. Zeeb 		return ret;
224*8ba4d145SBjoern A. Zeeb 
225*8ba4d145SBjoern A. Zeeb 	mt76_wr(dev, MT_WFDMA0_TX_RING0_EXT_CTRL, 0x4);
226*8ba4d145SBjoern A. Zeeb 
227*8ba4d145SBjoern A. Zeeb 	/* command to WM */
228*8ba4d145SBjoern A. Zeeb 	ret = mt76_init_mcu_queue(&dev->mt76, MT_MCUQ_WM, MT7925_TXQ_MCU_WM,
229*8ba4d145SBjoern A. Zeeb 				  MT7925_TX_MCU_RING_SIZE, MT_TX_RING_BASE);
230*8ba4d145SBjoern A. Zeeb 	if (ret)
231*8ba4d145SBjoern A. Zeeb 		return ret;
232*8ba4d145SBjoern A. Zeeb 
233*8ba4d145SBjoern A. Zeeb 	/* firmware download */
234*8ba4d145SBjoern A. Zeeb 	ret = mt76_init_mcu_queue(&dev->mt76, MT_MCUQ_FWDL, MT7925_TXQ_FWDL,
235*8ba4d145SBjoern A. Zeeb 				  MT7925_TX_FWDL_RING_SIZE, MT_TX_RING_BASE);
236*8ba4d145SBjoern A. Zeeb 	if (ret)
237*8ba4d145SBjoern A. Zeeb 		return ret;
238*8ba4d145SBjoern A. Zeeb 
239*8ba4d145SBjoern A. Zeeb 	/* rx event */
240*8ba4d145SBjoern A. Zeeb 	ret = mt76_queue_alloc(dev, &dev->mt76.q_rx[MT_RXQ_MCU],
241*8ba4d145SBjoern A. Zeeb 			       MT7925_RXQ_MCU_WM, MT7925_RX_MCU_RING_SIZE,
242*8ba4d145SBjoern A. Zeeb 			       MT_RX_BUF_SIZE, MT_RX_EVENT_RING_BASE);
243*8ba4d145SBjoern A. Zeeb 	if (ret)
244*8ba4d145SBjoern A. Zeeb 		return ret;
245*8ba4d145SBjoern A. Zeeb 
246*8ba4d145SBjoern A. Zeeb 	/* rx data */
247*8ba4d145SBjoern A. Zeeb 	ret = mt76_queue_alloc(dev, &dev->mt76.q_rx[MT_RXQ_MAIN],
248*8ba4d145SBjoern A. Zeeb 			       MT7925_RXQ_BAND0, MT7925_RX_RING_SIZE,
249*8ba4d145SBjoern A. Zeeb 			       MT_RX_BUF_SIZE, MT_RX_DATA_RING_BASE);
250*8ba4d145SBjoern A. Zeeb 	if (ret)
251*8ba4d145SBjoern A. Zeeb 		return ret;
252*8ba4d145SBjoern A. Zeeb 
253*8ba4d145SBjoern A. Zeeb 	ret = mt76_init_queues(dev, mt792x_poll_rx);
254*8ba4d145SBjoern A. Zeeb 	if (ret < 0)
255*8ba4d145SBjoern A. Zeeb 		return ret;
256*8ba4d145SBjoern A. Zeeb 
257*8ba4d145SBjoern A. Zeeb 	netif_napi_add_tx(dev->mt76.tx_napi_dev, &dev->mt76.tx_napi,
258*8ba4d145SBjoern A. Zeeb 			  mt792x_poll_tx);
259*8ba4d145SBjoern A. Zeeb 	napi_enable(&dev->mt76.tx_napi);
260*8ba4d145SBjoern A. Zeeb 
261*8ba4d145SBjoern A. Zeeb 	return mt792x_dma_enable(dev);
262*8ba4d145SBjoern A. Zeeb }
263*8ba4d145SBjoern A. Zeeb 
mt7925_pci_probe(struct pci_dev * pdev,const struct pci_device_id * id)264*8ba4d145SBjoern A. Zeeb static int mt7925_pci_probe(struct pci_dev *pdev,
265*8ba4d145SBjoern A. Zeeb 			    const struct pci_device_id *id)
266*8ba4d145SBjoern A. Zeeb {
267*8ba4d145SBjoern A. Zeeb 	static const struct mt76_driver_ops drv_ops = {
268*8ba4d145SBjoern A. Zeeb 		/* txwi_size = txd size + txp size */
269*8ba4d145SBjoern A. Zeeb 		.txwi_size = MT_TXD_SIZE + sizeof(struct mt76_connac_hw_txp),
270*8ba4d145SBjoern A. Zeeb 		.drv_flags = MT_DRV_TXWI_NO_FREE | MT_DRV_HW_MGMT_TXQ |
271*8ba4d145SBjoern A. Zeeb 			     MT_DRV_AMSDU_OFFLOAD,
272*8ba4d145SBjoern A. Zeeb 		.survey_flags = SURVEY_INFO_TIME_TX |
273*8ba4d145SBjoern A. Zeeb 				SURVEY_INFO_TIME_RX |
274*8ba4d145SBjoern A. Zeeb 				SURVEY_INFO_TIME_BSS_RX,
275*8ba4d145SBjoern A. Zeeb 		.token_size = MT7925_TOKEN_SIZE,
276*8ba4d145SBjoern A. Zeeb 		.tx_prepare_skb = mt7925e_tx_prepare_skb,
277*8ba4d145SBjoern A. Zeeb 		.tx_complete_skb = mt76_connac_tx_complete_skb,
278*8ba4d145SBjoern A. Zeeb 		.rx_check = mt7925_rx_check,
279*8ba4d145SBjoern A. Zeeb 		.rx_skb = mt7925_queue_rx_skb,
280*8ba4d145SBjoern A. Zeeb 		.rx_poll_complete = mt792x_rx_poll_complete,
281*8ba4d145SBjoern A. Zeeb 		.sta_add = mt7925_mac_sta_add,
282*8ba4d145SBjoern A. Zeeb 		.sta_event = mt7925_mac_sta_event,
283*8ba4d145SBjoern A. Zeeb 		.sta_remove = mt7925_mac_sta_remove,
284*8ba4d145SBjoern A. Zeeb 		.update_survey = mt792x_update_channel,
285*8ba4d145SBjoern A. Zeeb 	};
286*8ba4d145SBjoern A. Zeeb 	static const struct mt792x_hif_ops mt7925_pcie_ops = {
287*8ba4d145SBjoern A. Zeeb 		.init_reset = mt7925e_init_reset,
288*8ba4d145SBjoern A. Zeeb 		.reset = mt7925e_mac_reset,
289*8ba4d145SBjoern A. Zeeb 		.mcu_init = mt7925e_mcu_init,
290*8ba4d145SBjoern A. Zeeb 		.drv_own = mt792xe_mcu_drv_pmctrl,
291*8ba4d145SBjoern A. Zeeb 		.fw_own = mt792xe_mcu_fw_pmctrl,
292*8ba4d145SBjoern A. Zeeb 	};
293*8ba4d145SBjoern A. Zeeb 	static const struct mt792x_irq_map irq_map = {
294*8ba4d145SBjoern A. Zeeb 		.host_irq_enable = MT_WFDMA0_HOST_INT_ENA,
295*8ba4d145SBjoern A. Zeeb 		.tx = {
296*8ba4d145SBjoern A. Zeeb 			.all_complete_mask = MT_INT_TX_DONE_ALL,
297*8ba4d145SBjoern A. Zeeb 			.mcu_complete_mask = MT_INT_TX_DONE_MCU,
298*8ba4d145SBjoern A. Zeeb 		},
299*8ba4d145SBjoern A. Zeeb 		.rx = {
300*8ba4d145SBjoern A. Zeeb 			.data_complete_mask = HOST_RX_DONE_INT_ENA2,
301*8ba4d145SBjoern A. Zeeb 			.wm_complete_mask = HOST_RX_DONE_INT_ENA0,
302*8ba4d145SBjoern A. Zeeb 		},
303*8ba4d145SBjoern A. Zeeb 	};
304*8ba4d145SBjoern A. Zeeb 	struct ieee80211_ops *ops;
305*8ba4d145SBjoern A. Zeeb 	struct mt76_bus_ops *bus_ops;
306*8ba4d145SBjoern A. Zeeb 	struct mt792x_dev *dev;
307*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *mdev;
308*8ba4d145SBjoern A. Zeeb 	u8 features;
309*8ba4d145SBjoern A. Zeeb 	int ret;
310*8ba4d145SBjoern A. Zeeb 	u16 cmd;
311*8ba4d145SBjoern A. Zeeb 
312*8ba4d145SBjoern A. Zeeb 	ret = pcim_enable_device(pdev);
313*8ba4d145SBjoern A. Zeeb 	if (ret)
314*8ba4d145SBjoern A. Zeeb 		return ret;
315*8ba4d145SBjoern A. Zeeb 
316*8ba4d145SBjoern A. Zeeb 	ret = pcim_iomap_regions(pdev, BIT(0), pci_name(pdev));
317*8ba4d145SBjoern A. Zeeb 	if (ret)
318*8ba4d145SBjoern A. Zeeb 		return ret;
319*8ba4d145SBjoern A. Zeeb 
320*8ba4d145SBjoern A. Zeeb 	pci_read_config_word(pdev, PCI_COMMAND, &cmd);
321*8ba4d145SBjoern A. Zeeb 	if (!(cmd & PCI_COMMAND_MEMORY)) {
322*8ba4d145SBjoern A. Zeeb 		cmd |= PCI_COMMAND_MEMORY;
323*8ba4d145SBjoern A. Zeeb 		pci_write_config_word(pdev, PCI_COMMAND, cmd);
324*8ba4d145SBjoern A. Zeeb 	}
325*8ba4d145SBjoern A. Zeeb 	pci_set_master(pdev);
326*8ba4d145SBjoern A. Zeeb 
327*8ba4d145SBjoern A. Zeeb 	ret = pci_alloc_irq_vectors(pdev, 1, 1, PCI_IRQ_ALL_TYPES);
328*8ba4d145SBjoern A. Zeeb 	if (ret < 0)
329*8ba4d145SBjoern A. Zeeb 		return ret;
330*8ba4d145SBjoern A. Zeeb 
331*8ba4d145SBjoern A. Zeeb 	ret = dma_set_mask(&pdev->dev, DMA_BIT_MASK(32));
332*8ba4d145SBjoern A. Zeeb 	if (ret)
333*8ba4d145SBjoern A. Zeeb 		goto err_free_pci_vec;
334*8ba4d145SBjoern A. Zeeb 
335*8ba4d145SBjoern A. Zeeb 	if (mt7925_disable_aspm)
336*8ba4d145SBjoern A. Zeeb 		mt76_pci_disable_aspm(pdev);
337*8ba4d145SBjoern A. Zeeb 
338*8ba4d145SBjoern A. Zeeb 	ops = mt792x_get_mac80211_ops(&pdev->dev, &mt7925_ops,
339*8ba4d145SBjoern A. Zeeb 				      (void *)id->driver_data, &features);
340*8ba4d145SBjoern A. Zeeb 	if (!ops) {
341*8ba4d145SBjoern A. Zeeb 		ret = -ENOMEM;
342*8ba4d145SBjoern A. Zeeb 		goto err_free_pci_vec;
343*8ba4d145SBjoern A. Zeeb 	}
344*8ba4d145SBjoern A. Zeeb 
345*8ba4d145SBjoern A. Zeeb 	mdev = mt76_alloc_device(&pdev->dev, sizeof(*dev), ops, &drv_ops);
346*8ba4d145SBjoern A. Zeeb 	if (!mdev) {
347*8ba4d145SBjoern A. Zeeb 		ret = -ENOMEM;
348*8ba4d145SBjoern A. Zeeb 		goto err_free_pci_vec;
349*8ba4d145SBjoern A. Zeeb 	}
350*8ba4d145SBjoern A. Zeeb 
351*8ba4d145SBjoern A. Zeeb 	pci_set_drvdata(pdev, mdev);
352*8ba4d145SBjoern A. Zeeb 
353*8ba4d145SBjoern A. Zeeb 	dev = container_of(mdev, struct mt792x_dev, mt76);
354*8ba4d145SBjoern A. Zeeb 	dev->fw_features = features;
355*8ba4d145SBjoern A. Zeeb 	dev->hif_ops = &mt7925_pcie_ops;
356*8ba4d145SBjoern A. Zeeb 	dev->irq_map = &irq_map;
357*8ba4d145SBjoern A. Zeeb 	mt76_mmio_init(&dev->mt76, pcim_iomap_table(pdev)[0]);
358*8ba4d145SBjoern A. Zeeb 	tasklet_init(&mdev->irq_tasklet, mt792x_irq_tasklet, (unsigned long)dev);
359*8ba4d145SBjoern A. Zeeb 
360*8ba4d145SBjoern A. Zeeb 	dev->phy.dev = dev;
361*8ba4d145SBjoern A. Zeeb 	dev->phy.mt76 = &dev->mt76.phy;
362*8ba4d145SBjoern A. Zeeb 	dev->mt76.phy.priv = &dev->phy;
363*8ba4d145SBjoern A. Zeeb 	dev->bus_ops = dev->mt76.bus;
364*8ba4d145SBjoern A. Zeeb 	bus_ops = devm_kmemdup(dev->mt76.dev, dev->bus_ops, sizeof(*bus_ops),
365*8ba4d145SBjoern A. Zeeb 			       GFP_KERNEL);
366*8ba4d145SBjoern A. Zeeb 	if (!bus_ops) {
367*8ba4d145SBjoern A. Zeeb 		ret = -ENOMEM;
368*8ba4d145SBjoern A. Zeeb 		goto err_free_dev;
369*8ba4d145SBjoern A. Zeeb 	}
370*8ba4d145SBjoern A. Zeeb 
371*8ba4d145SBjoern A. Zeeb 	bus_ops->rr = mt7925_rr;
372*8ba4d145SBjoern A. Zeeb 	bus_ops->wr = mt7925_wr;
373*8ba4d145SBjoern A. Zeeb 	bus_ops->rmw = mt7925_rmw;
374*8ba4d145SBjoern A. Zeeb 	dev->mt76.bus = bus_ops;
375*8ba4d145SBjoern A. Zeeb 
376*8ba4d145SBjoern A. Zeeb 	if (!mt7925_disable_aspm && mt76_pci_aspm_supported(pdev))
377*8ba4d145SBjoern A. Zeeb 		dev->aspm_supported = true;
378*8ba4d145SBjoern A. Zeeb 
379*8ba4d145SBjoern A. Zeeb 	ret = __mt792x_mcu_fw_pmctrl(dev);
380*8ba4d145SBjoern A. Zeeb 	if (ret)
381*8ba4d145SBjoern A. Zeeb 		goto err_free_dev;
382*8ba4d145SBjoern A. Zeeb 
383*8ba4d145SBjoern A. Zeeb 	ret = __mt792xe_mcu_drv_pmctrl(dev);
384*8ba4d145SBjoern A. Zeeb 	if (ret)
385*8ba4d145SBjoern A. Zeeb 		goto err_free_dev;
386*8ba4d145SBjoern A. Zeeb 
387*8ba4d145SBjoern A. Zeeb 	mdev->rev = (mt76_rr(dev, MT_HW_CHIPID) << 16) |
388*8ba4d145SBjoern A. Zeeb 		    (mt76_rr(dev, MT_HW_REV) & 0xff);
389*8ba4d145SBjoern A. Zeeb 
390*8ba4d145SBjoern A. Zeeb 	dev_info(mdev->dev, "ASIC revision: %04x\n", mdev->rev);
391*8ba4d145SBjoern A. Zeeb 
392*8ba4d145SBjoern A. Zeeb 	mt76_rmw_field(dev, MT_HW_EMI_CTL, MT_HW_EMI_CTL_SLPPROT_EN, 1);
393*8ba4d145SBjoern A. Zeeb 
394*8ba4d145SBjoern A. Zeeb 	ret = mt792x_wfsys_reset(dev);
395*8ba4d145SBjoern A. Zeeb 	if (ret)
396*8ba4d145SBjoern A. Zeeb 		goto err_free_dev;
397*8ba4d145SBjoern A. Zeeb 
398*8ba4d145SBjoern A. Zeeb 	mt76_wr(dev, irq_map.host_irq_enable, 0);
399*8ba4d145SBjoern A. Zeeb 
400*8ba4d145SBjoern A. Zeeb 	mt76_wr(dev, MT_PCIE_MAC_INT_ENABLE, 0xff);
401*8ba4d145SBjoern A. Zeeb 
402*8ba4d145SBjoern A. Zeeb 	ret = devm_request_irq(mdev->dev, pdev->irq, mt792x_irq_handler,
403*8ba4d145SBjoern A. Zeeb 			       IRQF_SHARED, KBUILD_MODNAME, dev);
404*8ba4d145SBjoern A. Zeeb 	if (ret)
405*8ba4d145SBjoern A. Zeeb 		goto err_free_dev;
406*8ba4d145SBjoern A. Zeeb 
407*8ba4d145SBjoern A. Zeeb 	ret = mt7925_dma_init(dev);
408*8ba4d145SBjoern A. Zeeb 	if (ret)
409*8ba4d145SBjoern A. Zeeb 		goto err_free_irq;
410*8ba4d145SBjoern A. Zeeb 
411*8ba4d145SBjoern A. Zeeb 	ret = mt7925_register_device(dev);
412*8ba4d145SBjoern A. Zeeb 	if (ret)
413*8ba4d145SBjoern A. Zeeb 		goto err_free_irq;
414*8ba4d145SBjoern A. Zeeb 
415*8ba4d145SBjoern A. Zeeb 	return 0;
416*8ba4d145SBjoern A. Zeeb 
417*8ba4d145SBjoern A. Zeeb err_free_irq:
418*8ba4d145SBjoern A. Zeeb 	devm_free_irq(&pdev->dev, pdev->irq, dev);
419*8ba4d145SBjoern A. Zeeb err_free_dev:
420*8ba4d145SBjoern A. Zeeb 	mt76_free_device(&dev->mt76);
421*8ba4d145SBjoern A. Zeeb err_free_pci_vec:
422*8ba4d145SBjoern A. Zeeb 	pci_free_irq_vectors(pdev);
423*8ba4d145SBjoern A. Zeeb 
424*8ba4d145SBjoern A. Zeeb 	return ret;
425*8ba4d145SBjoern A. Zeeb }
426*8ba4d145SBjoern A. Zeeb 
mt7925_pci_remove(struct pci_dev * pdev)427*8ba4d145SBjoern A. Zeeb static void mt7925_pci_remove(struct pci_dev *pdev)
428*8ba4d145SBjoern A. Zeeb {
429*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *mdev = pci_get_drvdata(pdev);
430*8ba4d145SBjoern A. Zeeb 	struct mt792x_dev *dev = container_of(mdev, struct mt792x_dev, mt76);
431*8ba4d145SBjoern A. Zeeb 
432*8ba4d145SBjoern A. Zeeb 	mt7925e_unregister_device(dev);
433*8ba4d145SBjoern A. Zeeb 	set_bit(MT76_REMOVED, &mdev->phy.state);
434*8ba4d145SBjoern A. Zeeb 	devm_free_irq(&pdev->dev, pdev->irq, dev);
435*8ba4d145SBjoern A. Zeeb 	mt76_free_device(&dev->mt76);
436*8ba4d145SBjoern A. Zeeb 	pci_free_irq_vectors(pdev);
437*8ba4d145SBjoern A. Zeeb }
438*8ba4d145SBjoern A. Zeeb 
439*8ba4d145SBjoern A. Zeeb #if !defined(__FreeBSD__) || defined(CONFIG_PM_SLEEP)
mt7925_pci_suspend(struct device * device)440*8ba4d145SBjoern A. Zeeb static int mt7925_pci_suspend(struct device *device)
441*8ba4d145SBjoern A. Zeeb {
442*8ba4d145SBjoern A. Zeeb 	struct pci_dev *pdev = to_pci_dev(device);
443*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *mdev = pci_get_drvdata(pdev);
444*8ba4d145SBjoern A. Zeeb 	struct mt792x_dev *dev = container_of(mdev, struct mt792x_dev, mt76);
445*8ba4d145SBjoern A. Zeeb 	struct mt76_connac_pm *pm = &dev->pm;
446*8ba4d145SBjoern A. Zeeb 	int i, err, ret;
447*8ba4d145SBjoern A. Zeeb 
448*8ba4d145SBjoern A. Zeeb 	pm->suspended = true;
449*8ba4d145SBjoern A. Zeeb 	dev->hif_resumed = false;
450*8ba4d145SBjoern A. Zeeb 	flush_work(&dev->reset_work);
451*8ba4d145SBjoern A. Zeeb 	cancel_delayed_work_sync(&pm->ps_work);
452*8ba4d145SBjoern A. Zeeb 	cancel_work_sync(&pm->wake_work);
453*8ba4d145SBjoern A. Zeeb 
454*8ba4d145SBjoern A. Zeeb 	mt7925_roc_abort_sync(dev);
455*8ba4d145SBjoern A. Zeeb 
456*8ba4d145SBjoern A. Zeeb 	err = mt792x_mcu_drv_pmctrl(dev);
457*8ba4d145SBjoern A. Zeeb 	if (err < 0)
458*8ba4d145SBjoern A. Zeeb 		goto restore_suspend;
459*8ba4d145SBjoern A. Zeeb 
460*8ba4d145SBjoern A. Zeeb 	wait_event_timeout(dev->wait,
461*8ba4d145SBjoern A. Zeeb 			   !dev->regd_in_progress, 5 * HZ);
462*8ba4d145SBjoern A. Zeeb 
463*8ba4d145SBjoern A. Zeeb 	/* always enable deep sleep during suspend to reduce
464*8ba4d145SBjoern A. Zeeb 	 * power consumption
465*8ba4d145SBjoern A. Zeeb 	 */
466*8ba4d145SBjoern A. Zeeb 	mt7925_mcu_set_deep_sleep(dev, true);
467*8ba4d145SBjoern A. Zeeb 
468*8ba4d145SBjoern A. Zeeb 	mt76_connac_mcu_set_hif_suspend(mdev, true, false);
469*8ba4d145SBjoern A. Zeeb 	ret = wait_event_timeout(dev->wait,
470*8ba4d145SBjoern A. Zeeb 				 dev->hif_idle, 3 * HZ);
471*8ba4d145SBjoern A. Zeeb 	if (!ret) {
472*8ba4d145SBjoern A. Zeeb 		err = -ETIMEDOUT;
473*8ba4d145SBjoern A. Zeeb 		goto restore_suspend;
474*8ba4d145SBjoern A. Zeeb 	}
475*8ba4d145SBjoern A. Zeeb 
476*8ba4d145SBjoern A. Zeeb 	napi_disable(&mdev->tx_napi);
477*8ba4d145SBjoern A. Zeeb 	mt76_worker_disable(&mdev->tx_worker);
478*8ba4d145SBjoern A. Zeeb 
479*8ba4d145SBjoern A. Zeeb 	mt76_for_each_q_rx(mdev, i) {
480*8ba4d145SBjoern A. Zeeb 		napi_disable(&mdev->napi[i]);
481*8ba4d145SBjoern A. Zeeb 	}
482*8ba4d145SBjoern A. Zeeb 
483*8ba4d145SBjoern A. Zeeb 	/* wait until dma is idle  */
484*8ba4d145SBjoern A. Zeeb 	mt76_poll(dev, MT_WFDMA0_GLO_CFG,
485*8ba4d145SBjoern A. Zeeb 		  MT_WFDMA0_GLO_CFG_TX_DMA_BUSY |
486*8ba4d145SBjoern A. Zeeb 		  MT_WFDMA0_GLO_CFG_RX_DMA_BUSY, 0, 1000);
487*8ba4d145SBjoern A. Zeeb 
488*8ba4d145SBjoern A. Zeeb 	/* put dma disabled */
489*8ba4d145SBjoern A. Zeeb 	mt76_clear(dev, MT_WFDMA0_GLO_CFG,
490*8ba4d145SBjoern A. Zeeb 		   MT_WFDMA0_GLO_CFG_TX_DMA_EN | MT_WFDMA0_GLO_CFG_RX_DMA_EN);
491*8ba4d145SBjoern A. Zeeb 
492*8ba4d145SBjoern A. Zeeb 	/* disable interrupt */
493*8ba4d145SBjoern A. Zeeb 	mt76_wr(dev, dev->irq_map->host_irq_enable, 0);
494*8ba4d145SBjoern A. Zeeb 	mt76_wr(dev, MT_WFDMA0_HOST_INT_DIS,
495*8ba4d145SBjoern A. Zeeb 		dev->irq_map->tx.all_complete_mask |
496*8ba4d145SBjoern A. Zeeb 		MT_INT_RX_DONE_ALL | MT_INT_MCU_CMD);
497*8ba4d145SBjoern A. Zeeb 
498*8ba4d145SBjoern A. Zeeb 	mt76_wr(dev, MT_PCIE_MAC_INT_ENABLE, 0x0);
499*8ba4d145SBjoern A. Zeeb 
500*8ba4d145SBjoern A. Zeeb 	synchronize_irq(pdev->irq);
501*8ba4d145SBjoern A. Zeeb 	tasklet_kill(&mdev->irq_tasklet);
502*8ba4d145SBjoern A. Zeeb 
503*8ba4d145SBjoern A. Zeeb 	err = mt792x_mcu_fw_pmctrl(dev);
504*8ba4d145SBjoern A. Zeeb 	if (err)
505*8ba4d145SBjoern A. Zeeb 		goto restore_napi;
506*8ba4d145SBjoern A. Zeeb 
507*8ba4d145SBjoern A. Zeeb 	return 0;
508*8ba4d145SBjoern A. Zeeb 
509*8ba4d145SBjoern A. Zeeb restore_napi:
510*8ba4d145SBjoern A. Zeeb 	mt76_for_each_q_rx(mdev, i) {
511*8ba4d145SBjoern A. Zeeb 		napi_enable(&mdev->napi[i]);
512*8ba4d145SBjoern A. Zeeb 	}
513*8ba4d145SBjoern A. Zeeb 	napi_enable(&mdev->tx_napi);
514*8ba4d145SBjoern A. Zeeb 
515*8ba4d145SBjoern A. Zeeb 	if (!pm->ds_enable)
516*8ba4d145SBjoern A. Zeeb 		mt7925_mcu_set_deep_sleep(dev, false);
517*8ba4d145SBjoern A. Zeeb 
518*8ba4d145SBjoern A. Zeeb 	mt76_connac_mcu_set_hif_suspend(mdev, false, false);
519*8ba4d145SBjoern A. Zeeb 	ret = wait_event_timeout(dev->wait,
520*8ba4d145SBjoern A. Zeeb 				 dev->hif_resumed, 3 * HZ);
521*8ba4d145SBjoern A. Zeeb 	if (!ret)
522*8ba4d145SBjoern A. Zeeb 		err = -ETIMEDOUT;
523*8ba4d145SBjoern A. Zeeb restore_suspend:
524*8ba4d145SBjoern A. Zeeb 	pm->suspended = false;
525*8ba4d145SBjoern A. Zeeb 
526*8ba4d145SBjoern A. Zeeb 	if (err < 0)
527*8ba4d145SBjoern A. Zeeb 		mt792x_reset(&dev->mt76);
528*8ba4d145SBjoern A. Zeeb 
529*8ba4d145SBjoern A. Zeeb 	return err;
530*8ba4d145SBjoern A. Zeeb }
531*8ba4d145SBjoern A. Zeeb 
mt7925_pci_resume(struct device * device)532*8ba4d145SBjoern A. Zeeb static int mt7925_pci_resume(struct device *device)
533*8ba4d145SBjoern A. Zeeb {
534*8ba4d145SBjoern A. Zeeb 	struct pci_dev *pdev = to_pci_dev(device);
535*8ba4d145SBjoern A. Zeeb 	struct mt76_dev *mdev = pci_get_drvdata(pdev);
536*8ba4d145SBjoern A. Zeeb 	struct mt792x_dev *dev = container_of(mdev, struct mt792x_dev, mt76);
537*8ba4d145SBjoern A. Zeeb 	struct mt76_connac_pm *pm = &dev->pm;
538*8ba4d145SBjoern A. Zeeb 	int i, err, ret;
539*8ba4d145SBjoern A. Zeeb 
540*8ba4d145SBjoern A. Zeeb 	dev->hif_idle = false;
541*8ba4d145SBjoern A. Zeeb 	err = mt792x_mcu_drv_pmctrl(dev);
542*8ba4d145SBjoern A. Zeeb 	if (err < 0)
543*8ba4d145SBjoern A. Zeeb 		goto failed;
544*8ba4d145SBjoern A. Zeeb 
545*8ba4d145SBjoern A. Zeeb 	mt792x_wpdma_reinit_cond(dev);
546*8ba4d145SBjoern A. Zeeb 
547*8ba4d145SBjoern A. Zeeb 	/* enable interrupt */
548*8ba4d145SBjoern A. Zeeb 	mt76_wr(dev, MT_PCIE_MAC_INT_ENABLE, 0xff);
549*8ba4d145SBjoern A. Zeeb 	mt76_connac_irq_enable(&dev->mt76,
550*8ba4d145SBjoern A. Zeeb 			       dev->irq_map->tx.all_complete_mask |
551*8ba4d145SBjoern A. Zeeb 			       MT_INT_RX_DONE_ALL | MT_INT_MCU_CMD);
552*8ba4d145SBjoern A. Zeeb 	mt76_set(dev, MT_MCU2HOST_SW_INT_ENA, MT_MCU_CMD_WAKE_RX_PCIE);
553*8ba4d145SBjoern A. Zeeb 
554*8ba4d145SBjoern A. Zeeb 	/* put dma enabled */
555*8ba4d145SBjoern A. Zeeb 	mt76_set(dev, MT_WFDMA0_GLO_CFG,
556*8ba4d145SBjoern A. Zeeb 		 MT_WFDMA0_GLO_CFG_TX_DMA_EN | MT_WFDMA0_GLO_CFG_RX_DMA_EN);
557*8ba4d145SBjoern A. Zeeb 
558*8ba4d145SBjoern A. Zeeb 	mt76_worker_enable(&mdev->tx_worker);
559*8ba4d145SBjoern A. Zeeb 
560*8ba4d145SBjoern A. Zeeb 	mt76_for_each_q_rx(mdev, i) {
561*8ba4d145SBjoern A. Zeeb 		napi_enable(&mdev->napi[i]);
562*8ba4d145SBjoern A. Zeeb 	}
563*8ba4d145SBjoern A. Zeeb 	napi_enable(&mdev->tx_napi);
564*8ba4d145SBjoern A. Zeeb 
565*8ba4d145SBjoern A. Zeeb 	local_bh_disable();
566*8ba4d145SBjoern A. Zeeb 	mt76_for_each_q_rx(mdev, i) {
567*8ba4d145SBjoern A. Zeeb 		napi_schedule(&mdev->napi[i]);
568*8ba4d145SBjoern A. Zeeb 	}
569*8ba4d145SBjoern A. Zeeb 	napi_schedule(&mdev->tx_napi);
570*8ba4d145SBjoern A. Zeeb 	local_bh_enable();
571*8ba4d145SBjoern A. Zeeb 
572*8ba4d145SBjoern A. Zeeb 	mt76_connac_mcu_set_hif_suspend(mdev, false, false);
573*8ba4d145SBjoern A. Zeeb 	ret = wait_event_timeout(dev->wait,
574*8ba4d145SBjoern A. Zeeb 				 dev->hif_resumed, 3 * HZ);
575*8ba4d145SBjoern A. Zeeb 	if (!ret) {
576*8ba4d145SBjoern A. Zeeb 		err = -ETIMEDOUT;
577*8ba4d145SBjoern A. Zeeb 		goto failed;
578*8ba4d145SBjoern A. Zeeb 	}
579*8ba4d145SBjoern A. Zeeb 
580*8ba4d145SBjoern A. Zeeb 	/* restore previous ds setting */
581*8ba4d145SBjoern A. Zeeb 	if (!pm->ds_enable)
582*8ba4d145SBjoern A. Zeeb 		mt7925_mcu_set_deep_sleep(dev, false);
583*8ba4d145SBjoern A. Zeeb 
584*8ba4d145SBjoern A. Zeeb 	mt7925_regd_update(dev);
585*8ba4d145SBjoern A. Zeeb failed:
586*8ba4d145SBjoern A. Zeeb 	pm->suspended = false;
587*8ba4d145SBjoern A. Zeeb 
588*8ba4d145SBjoern A. Zeeb 	if (err < 0)
589*8ba4d145SBjoern A. Zeeb 		mt792x_reset(&dev->mt76);
590*8ba4d145SBjoern A. Zeeb 
591*8ba4d145SBjoern A. Zeeb 	return err;
592*8ba4d145SBjoern A. Zeeb }
593*8ba4d145SBjoern A. Zeeb #endif
594*8ba4d145SBjoern A. Zeeb 
mt7925_pci_shutdown(struct pci_dev * pdev)595*8ba4d145SBjoern A. Zeeb static void mt7925_pci_shutdown(struct pci_dev *pdev)
596*8ba4d145SBjoern A. Zeeb {
597*8ba4d145SBjoern A. Zeeb 	mt7925_pci_remove(pdev);
598*8ba4d145SBjoern A. Zeeb }
599*8ba4d145SBjoern A. Zeeb 
600*8ba4d145SBjoern A. Zeeb static DEFINE_SIMPLE_DEV_PM_OPS(mt7925_pm_ops, mt7925_pci_suspend, mt7925_pci_resume);
601*8ba4d145SBjoern A. Zeeb 
602*8ba4d145SBjoern A. Zeeb static struct pci_driver mt7925_pci_driver = {
603*8ba4d145SBjoern A. Zeeb 	.name		= KBUILD_MODNAME,
604*8ba4d145SBjoern A. Zeeb 	.id_table	= mt7925_pci_device_table,
605*8ba4d145SBjoern A. Zeeb 	.probe		= mt7925_pci_probe,
606*8ba4d145SBjoern A. Zeeb 	.remove		= mt7925_pci_remove,
607*8ba4d145SBjoern A. Zeeb 	.shutdown       = mt7925_pci_shutdown,
608*8ba4d145SBjoern A. Zeeb 	.driver.pm	= pm_sleep_ptr(&mt7925_pm_ops),
609*8ba4d145SBjoern A. Zeeb };
610*8ba4d145SBjoern A. Zeeb 
611*8ba4d145SBjoern A. Zeeb module_pci_driver(mt7925_pci_driver);
612*8ba4d145SBjoern A. Zeeb 
613*8ba4d145SBjoern A. Zeeb MODULE_DEVICE_TABLE(pci, mt7925_pci_device_table);
614*8ba4d145SBjoern A. Zeeb MODULE_FIRMWARE(MT7925_FIRMWARE_WM);
615*8ba4d145SBjoern A. Zeeb MODULE_FIRMWARE(MT7925_ROM_PATCH);
616*8ba4d145SBjoern A. Zeeb MODULE_AUTHOR("Deren Wu <deren.wu@mediatek.com>");
617*8ba4d145SBjoern A. Zeeb MODULE_AUTHOR("Lorenzo Bianconi <lorenzo@kernel.org>");
618*8ba4d145SBjoern A. Zeeb MODULE_DESCRIPTION("MediaTek MT7925E (PCIe) wireless driver");
619*8ba4d145SBjoern A. Zeeb MODULE_LICENSE("Dual BSD/GPL");
620*8ba4d145SBjoern A. Zeeb #if defined(__FreeBSD__)
621*8ba4d145SBjoern A. Zeeb MODULE_VERSION(mt7925_pci, 1);
622*8ba4d145SBjoern A. Zeeb MODULE_DEPEND(mt7925_pci, linuxkpi, 1, 1, 1);
623*8ba4d145SBjoern A. Zeeb MODULE_DEPEND(mt7925_pci, linuxkpi_wlan, 1, 1, 1);
624*8ba4d145SBjoern A. Zeeb MODULE_DEPEND(mt7925_pci, mt76_core, 1, 1, 1);
625*8ba4d145SBjoern A. Zeeb #endif
626