1 /* SPDX-License-Identifier: GPL-2.0 */
2 /* Copyright(c) 2009-2014 Realtek Corporation.*/
3
4 #ifndef __RTL92E_TRX_H__
5 #define __RTL92E_TRX_H__
6
7 #define TX_DESC_SIZE 64
8
9 #define RX_DRV_INFO_SIZE_UNIT 8
10
11 #define TX_DESC_NEXT_DESC_OFFSET 40
12 #define USB_HWDESC_HEADER_LEN 40
13
14 #define RX_DESC_SIZE 24
15 #define MAX_RECEIVE_BUFFER_SIZE 8192
16
set_tx_desc_pkt_size(__le32 * __pdesc,u32 __val)17 static inline void set_tx_desc_pkt_size(__le32 *__pdesc, u32 __val)
18 {
19 le32p_replace_bits(__pdesc, __val, GENMASK(15, 0));
20 }
21
set_tx_desc_offset(__le32 * __pdesc,u32 __val)22 static inline void set_tx_desc_offset(__le32 *__pdesc, u32 __val)
23 {
24 le32p_replace_bits(__pdesc, __val, GENMASK(23, 16));
25 }
26
set_tx_desc_bmc(__le32 * __pdesc,u32 __val)27 static inline void set_tx_desc_bmc(__le32 *__pdesc, u32 __val)
28 {
29 le32p_replace_bits(__pdesc, __val, BIT(24));
30 }
31
set_tx_desc_htc(__le32 * __pdesc,u32 __val)32 static inline void set_tx_desc_htc(__le32 *__pdesc, u32 __val)
33 {
34 le32p_replace_bits(__pdesc, __val, BIT(25));
35 }
36
set_tx_desc_last_seg(__le32 * __pdesc,u32 __val)37 static inline void set_tx_desc_last_seg(__le32 *__pdesc, u32 __val)
38 {
39 le32p_replace_bits(__pdesc, __val, BIT(26));
40 }
41
set_tx_desc_first_seg(__le32 * __pdesc,u32 __val)42 static inline void set_tx_desc_first_seg(__le32 *__pdesc, u32 __val)
43 {
44 le32p_replace_bits(__pdesc, __val, BIT(27));
45 }
46
set_tx_desc_linip(__le32 * __pdesc,u32 __val)47 static inline void set_tx_desc_linip(__le32 *__pdesc, u32 __val)
48 {
49 le32p_replace_bits(__pdesc, __val, BIT(28));
50 }
51
set_tx_desc_own(__le32 * __pdesc,u32 __val)52 static inline void set_tx_desc_own(__le32 *__pdesc, u32 __val)
53 {
54 le32p_replace_bits(__pdesc, __val, BIT(31));
55 }
56
get_tx_desc_own(__le32 * __pdesc)57 static inline int get_tx_desc_own(__le32 *__pdesc)
58 {
59 return le32_get_bits(*(__pdesc), BIT(31));
60 }
61
set_tx_desc_macid(__le32 * __pdesc,u32 __val)62 static inline void set_tx_desc_macid(__le32 *__pdesc, u32 __val)
63 {
64 le32p_replace_bits((__pdesc + 1), __val, GENMASK(6, 0));
65 }
66
set_tx_desc_queue_sel(__le32 * __pdesc,u32 __val)67 static inline void set_tx_desc_queue_sel(__le32 *__pdesc, u32 __val)
68 {
69 le32p_replace_bits((__pdesc + 1), __val, GENMASK(12, 8));
70 }
71
set_tx_desc_rate_id(__le32 * __pdesc,u32 __val)72 static inline void set_tx_desc_rate_id(__le32 *__pdesc, u32 __val)
73 {
74 le32p_replace_bits((__pdesc + 1), __val, GENMASK(20, 16));
75 }
76
set_tx_desc_sec_type(__le32 * __pdesc,u32 __val)77 static inline void set_tx_desc_sec_type(__le32 *__pdesc, u32 __val)
78 {
79 le32p_replace_bits((__pdesc + 1), __val, GENMASK(23, 22));
80 }
81
set_tx_desc_pkt_offset(__le32 * __pdesc,u32 __val)82 static inline void set_tx_desc_pkt_offset(__le32 *__pdesc, u32 __val)
83 {
84 le32p_replace_bits((__pdesc + 1), __val, GENMASK(28, 24));
85 }
86
set_tx_desc_agg_enable(__le32 * __pdesc,u32 __val)87 static inline void set_tx_desc_agg_enable(__le32 *__pdesc, u32 __val)
88 {
89 le32p_replace_bits((__pdesc + 2), __val, BIT(12));
90 }
91
set_tx_desc_rdg_enable(__le32 * __pdesc,u32 __val)92 static inline void set_tx_desc_rdg_enable(__le32 *__pdesc, u32 __val)
93 {
94 le32p_replace_bits((__pdesc + 2), __val, BIT(13));
95 }
96
set_tx_desc_more_frag(__le32 * __pdesc,u32 __val)97 static inline void set_tx_desc_more_frag(__le32 *__pdesc, u32 __val)
98 {
99 le32p_replace_bits((__pdesc + 2), __val, BIT(17));
100 }
101
set_tx_desc_ampdu_density(__le32 * __pdesc,u32 __val)102 static inline void set_tx_desc_ampdu_density(__le32 *__pdesc, u32 __val)
103 {
104 le32p_replace_bits((__pdesc + 2), __val, GENMASK(22, 20));
105 }
106
set_tx_desc_use_rate(__le32 * __pdesc,u32 __val)107 static inline void set_tx_desc_use_rate(__le32 *__pdesc, u32 __val)
108 {
109 le32p_replace_bits((__pdesc + 3), __val, BIT(8));
110 }
111
set_tx_desc_disable_fb(__le32 * __pdesc,u32 __val)112 static inline void set_tx_desc_disable_fb(__le32 *__pdesc, u32 __val)
113 {
114 le32p_replace_bits((__pdesc + 3), __val, BIT(10));
115 }
116
set_tx_desc_cts2self(__le32 * __pdesc,u32 __val)117 static inline void set_tx_desc_cts2self(__le32 *__pdesc, u32 __val)
118 {
119 le32p_replace_bits((__pdesc + 3), __val, BIT(11));
120 }
121
set_tx_desc_rts_enable(__le32 * __pdesc,u32 __val)122 static inline void set_tx_desc_rts_enable(__le32 *__pdesc, u32 __val)
123 {
124 le32p_replace_bits((__pdesc + 3), __val, BIT(12));
125 }
126
set_tx_desc_hw_rts_enable(__le32 * __pdesc,u32 __val)127 static inline void set_tx_desc_hw_rts_enable(__le32 *__pdesc, u32 __val)
128 {
129 le32p_replace_bits((__pdesc + 3), __val, BIT(13));
130 }
131
set_tx_desc_nav_use_hdr(__le32 * __pdesc,u32 __val)132 static inline void set_tx_desc_nav_use_hdr(__le32 *__pdesc, u32 __val)
133 {
134 le32p_replace_bits((__pdesc + 3), __val, BIT(15));
135 }
136
set_tx_desc_max_agg_num(__le32 * __pdesc,u32 __val)137 static inline void set_tx_desc_max_agg_num(__le32 *__pdesc, u32 __val)
138 {
139 le32p_replace_bits((__pdesc + 3), __val, GENMASK(21, 17));
140 }
141
142 /* Dword 4 */
set_tx_desc_tx_rate(__le32 * __pdesc,u32 __val)143 static inline void set_tx_desc_tx_rate(__le32 *__pdesc, u32 __val)
144 {
145 le32p_replace_bits((__pdesc + 4), __val, GENMASK(6, 0));
146 }
147
set_tx_desc_data_rate_fb_limit(__le32 * __pdesc,u32 __val)148 static inline void set_tx_desc_data_rate_fb_limit(__le32 *__pdesc, u32 __val)
149 {
150 le32p_replace_bits((__pdesc + 4), __val, GENMASK(12, 8));
151 }
152
set_tx_desc_rts_rate_fb_limit(__le32 * __pdesc,u32 __val)153 static inline void set_tx_desc_rts_rate_fb_limit(__le32 *__pdesc, u32 __val)
154 {
155 le32p_replace_bits((__pdesc + 4), __val, GENMASK(16, 13));
156 }
157
set_tx_desc_rts_rate(__le32 * __pdesc,u32 __val)158 static inline void set_tx_desc_rts_rate(__le32 *__pdesc, u32 __val)
159 {
160 le32p_replace_bits((__pdesc + 4), __val, GENMASK(28, 24));
161 }
162
163 /* Dword 5 */
set_tx_desc_tx_sub_carrier(__le32 * __pdesc,u32 __val)164 static inline void set_tx_desc_tx_sub_carrier(__le32 *__pdesc, u32 __val)
165 {
166 le32p_replace_bits((__pdesc + 5), __val, GENMASK(3, 0));
167 }
168
set_tx_desc_data_bw(__le32 * __pdesc,u32 __val)169 static inline void set_tx_desc_data_bw(__le32 *__pdesc, u32 __val)
170 {
171 le32p_replace_bits((__pdesc + 4), __val, GENMASK(6, 5));
172 }
173
set_tx_desc_rts_short(__le32 * __pdesc,u32 __val)174 static inline void set_tx_desc_rts_short(__le32 *__pdesc, u32 __val)
175 {
176 le32p_replace_bits((__pdesc + 5), __val, BIT(12));
177 }
178
set_tx_desc_rts_sc(__le32 * __pdesc,u32 __val)179 static inline void set_tx_desc_rts_sc(__le32 *__pdesc, u32 __val)
180 {
181 le32p_replace_bits((__pdesc + 5), __val, GENMASK(16, 13));
182 }
183
184 /* Dword 7 */
set_tx_desc_tx_buffer_size(__le32 * __pdesc,u32 __val)185 static inline void set_tx_desc_tx_buffer_size(__le32 *__pdesc, u32 __val)
186 {
187 le32p_replace_bits((__pdesc + 7), __val, GENMASK(15, 0));
188 }
189
190 /* Dword 9 */
set_tx_desc_seq(__le32 * __pdesc,u32 __val)191 static inline void set_tx_desc_seq(__le32 *__pdesc, u32 __val)
192 {
193 le32p_replace_bits((__pdesc + 9), __val, GENMASK(23, 12));
194 }
195
196 /* Dword 10 */
set_tx_desc_tx_buffer_address(__le32 * __pdesc,u32 __val)197 static inline void set_tx_desc_tx_buffer_address(__le32 *__pdesc, u32 __val)
198 {
199 *(__pdesc + 10) = cpu_to_le32(__val);
200 }
201
202 /* Dword 11*/
set_tx_desc_next_desc_address(__le32 * __pdesc,u32 __val)203 static inline void set_tx_desc_next_desc_address(__le32 *__pdesc, u32 __val)
204 {
205 *(__pdesc + 12) = cpu_to_le32(__val);
206 }
207
set_earlymode_pktnum(__le32 * __paddr,u32 __val)208 static inline void set_earlymode_pktnum(__le32 *__paddr, u32 __val)
209 {
210 le32p_replace_bits(__paddr, __val, GENMASK(3, 0));
211 }
212
set_earlymode_len0(__le32 * __paddr,u32 __val)213 static inline void set_earlymode_len0(__le32 *__paddr, u32 __val)
214 {
215 le32p_replace_bits(__paddr, __val, GENMASK(18, 4));
216 }
217
set_earlymode_len1(__le32 * __paddr,u32 __val)218 static inline void set_earlymode_len1(__le32 *__paddr, u32 __val)
219 {
220 le32p_replace_bits(__paddr, __val, GENMASK(17, 16));
221 }
222
set_earlymode_len2_1(__le32 * __paddr,u32 __val)223 static inline void set_earlymode_len2_1(__le32 *__paddr, u32 __val)
224 {
225 le32p_replace_bits(__paddr, __val, GENMASK(5, 2));
226 }
227
set_earlymode_len2_2(__le32 * __paddr,u32 __val)228 static inline void set_earlymode_len2_2(__le32 *__paddr, u32 __val)
229 {
230 le32p_replace_bits((__paddr + 1), __val, GENMASK(7, 0));
231 }
232
set_earlymode_len3(__le32 * __paddr,u32 __val)233 static inline void set_earlymode_len3(__le32 *__paddr, u32 __val)
234 {
235 le32p_replace_bits((__paddr + 1), __val, GENMASK(31, 17));
236 }
237
set_earlymode_len4(__le32 * __paddr,u32 __val)238 static inline void set_earlymode_len4(__le32 *__paddr, u32 __val)
239 {
240 le32p_replace_bits((__paddr + 1), __val, GENMASK(31, 20));
241 }
242
243 /* TX/RX buffer descriptor */
244
245 /* for Txfilldescroptor92ee, fill the desc content. */
set_txbuffer_desc_len_with_offset(__le32 * __pdesc,u8 __offset,u32 __val)246 static inline void set_txbuffer_desc_len_with_offset(__le32 *__pdesc,
247 u8 __offset, u32 __val)
248 {
249 le32p_replace_bits((__pdesc + 4 * __offset), __val,
250 GENMASK(15, 0));
251 }
252
set_txbuffer_desc_amsdu_with_offset(__le32 * __pdesc,u8 __offset,u32 __val)253 static inline void set_txbuffer_desc_amsdu_with_offset(__le32 *__pdesc,
254 u8 __offset, u32 __val)
255 {
256 le32p_replace_bits((__pdesc + 4 * __offset), __val, BIT(31));
257 }
258
set_txbuffer_desc_add_low_with_offset(__le32 * __pdesc,u8 __offset,u32 __val)259 static inline void set_txbuffer_desc_add_low_with_offset(__le32 *__pdesc,
260 u8 __offset,
261 u32 __val)
262 {
263 *(__pdesc + 4 * __offset + 1) = cpu_to_le32(__val);
264 }
265
set_txbuffer_desc_add_high_with_offset(__le32 * pbd,u8 off,u32 val,bool dma64)266 static inline void set_txbuffer_desc_add_high_with_offset(__le32 *pbd, u8 off,
267 u32 val, bool dma64)
268 {
269 if (dma64)
270 *(pbd + 4 * off + 2) = cpu_to_le32(val);
271 else
272 *(pbd + 4 * off + 2) = 0;
273 }
274
get_txbuffer_desc_addr_low(__le32 * __pdesc,u8 __offset)275 static inline u32 get_txbuffer_desc_addr_low(__le32 *__pdesc, u8 __offset)
276 {
277 return le32_to_cpu(*((__pdesc + 4 * __offset + 1)));
278 }
279
get_txbuffer_desc_addr_high(__le32 * pbd,u32 off,bool dma64)280 static inline u32 get_txbuffer_desc_addr_high(__le32 *pbd, u32 off, bool dma64)
281 {
282 if (dma64)
283 return le32_to_cpu(*((pbd + 4 * off + 2)));
284 return 0;
285 }
286
287 /* Dword 0 */
set_tx_buff_desc_len_0(__le32 * __pdesc,u32 __val)288 static inline void set_tx_buff_desc_len_0(__le32 *__pdesc, u32 __val)
289 {
290 le32p_replace_bits(__pdesc, __val, GENMASK(13, 0));
291 }
292
set_tx_buff_desc_psb(__le32 * __pdesc,u32 __val)293 static inline void set_tx_buff_desc_psb(__le32 *__pdesc, u32 __val)
294 {
295 le32p_replace_bits(__pdesc, __val, GENMASK(30, 16));
296 }
297
set_tx_buff_desc_own(__le32 * __pdesc,u32 __val)298 static inline void set_tx_buff_desc_own(__le32 *__pdesc, u32 __val)
299 {
300 le32p_replace_bits(__pdesc, __val, BIT(31));
301 }
302
303 /* Dword 1 */
set_tx_buff_desc_addr_low_0(__le32 * __pdesc,u32 __val)304 static inline void set_tx_buff_desc_addr_low_0(__le32 *__pdesc, u32 __val)
305 {
306 *(__pdesc + 1) = cpu_to_le32(__val);
307 }
308
309 /* Dword 2 */
set_tx_buff_desc_addr_high_0(__le32 * pdesc,u32 val,bool dma64)310 static inline void set_tx_buff_desc_addr_high_0(__le32 *pdesc, u32 val,
311 bool dma64)
312 {
313 if (dma64)
314 *(pdesc + 2) = cpu_to_le32(val);
315 else
316 *(pdesc + 2) = 0;
317 }
318
319 /* RX buffer */
320
321 /* DWORD 0 */
set_rx_buffer_desc_data_length(__le32 * __status,u32 __val)322 static inline void set_rx_buffer_desc_data_length(__le32 *__status, u32 __val)
323 {
324 le32p_replace_bits(__status, __val, GENMASK(13, 0));
325 }
326
set_rx_buffer_desc_ls(__le32 * __status,u32 __val)327 static inline void set_rx_buffer_desc_ls(__le32 *__status, u32 __val)
328 {
329 le32p_replace_bits(__status, __val, BIT(15));
330 }
331
set_rx_buffer_desc_fs(__le32 * __status,u32 __val)332 static inline void set_rx_buffer_desc_fs(__le32 *__status, u32 __val)
333 {
334 le32p_replace_bits(__status, __val, BIT(16));
335 }
336
set_rx_buffer_desc_total_length(__le32 * __status,u32 __val)337 static inline void set_rx_buffer_desc_total_length(__le32 *__status, u32 __val)
338 {
339 le32p_replace_bits(__status, __val, GENMASK(30, 16));
340 }
341
get_rx_buffer_desc_ls(__le32 * __status)342 static inline int get_rx_buffer_desc_ls(__le32 *__status)
343 {
344 return le32_get_bits(*(__status), BIT(15));
345 }
346
get_rx_buffer_desc_fs(__le32 * __status)347 static inline int get_rx_buffer_desc_fs(__le32 *__status)
348 {
349 return le32_get_bits(*(__status), BIT(16));
350 }
351
get_rx_buffer_desc_total_length(__le32 * __status)352 static inline int get_rx_buffer_desc_total_length(__le32 *__status)
353 {
354 return le32_get_bits(*(__status), GENMASK(30, 16));
355 }
356
357 /* DWORD 1 */
set_rx_buffer_physical_low(__le32 * __status,u32 __val)358 static inline void set_rx_buffer_physical_low(__le32 *__status, u32 __val)
359 {
360 *(__status + 1) = cpu_to_le32(__val);
361 }
362
363 /* DWORD 2 */
set_rx_buffer_physical_high(__le32 * __rx_status_desc,u32 __val,bool dma64)364 static inline void set_rx_buffer_physical_high(__le32 *__rx_status_desc,
365 u32 __val, bool dma64)
366 {
367 if (dma64)
368 *(__rx_status_desc + 2) = cpu_to_le32(__val);
369 else
370 *(__rx_status_desc + 2) = 0;
371 }
372
get_rx_desc_pkt_len(__le32 * __pdesc)373 static inline int get_rx_desc_pkt_len(__le32 *__pdesc)
374 {
375 return le32_get_bits(*__pdesc, GENMASK(13, 0));
376 }
377
get_rx_desc_crc32(__le32 * __pdesc)378 static inline int get_rx_desc_crc32(__le32 *__pdesc)
379 {
380 return le32_get_bits(*__pdesc, BIT(14));
381 }
382
get_rx_desc_icv(__le32 * __pdesc)383 static inline int get_rx_desc_icv(__le32 *__pdesc)
384 {
385 return le32_get_bits(*__pdesc, BIT(15));
386 }
387
get_rx_desc_drv_info_size(__le32 * __pdesc)388 static inline int get_rx_desc_drv_info_size(__le32 *__pdesc)
389 {
390 return le32_get_bits(*__pdesc, GENMASK(19, 16));
391 }
392
get_rx_desc_shift(__le32 * __pdesc)393 static inline int get_rx_desc_shift(__le32 *__pdesc)
394 {
395 return le32_get_bits(*__pdesc, GENMASK(25, 24));
396 }
397
get_rx_desc_physt(__le32 * __pdesc)398 static inline int get_rx_desc_physt(__le32 *__pdesc)
399 {
400 return le32_get_bits(*__pdesc, BIT(26));
401 }
402
get_rx_desc_swdec(__le32 * __pdesc)403 static inline int get_rx_desc_swdec(__le32 *__pdesc)
404 {
405 return le32_get_bits(*__pdesc, BIT(27));
406 }
407
get_rx_desc_own(__le32 * __pdesc)408 static inline int get_rx_desc_own(__le32 *__pdesc)
409 {
410 return le32_get_bits(*__pdesc, BIT(31));
411 }
412
set_rx_desc_eor(__le32 * __pdesc,u32 __val)413 static inline void set_rx_desc_eor(__le32 *__pdesc, u32 __val)
414 {
415 le32p_replace_bits(__pdesc, __val, BIT(30));
416 }
417
get_rx_desc_macid(__le32 * __pdesc)418 static inline int get_rx_desc_macid(__le32 *__pdesc)
419 {
420 return le32_get_bits(*(__pdesc + 1), GENMASK(6, 0));
421 }
422
get_rx_desc_paggr(__le32 * __pdesc)423 static inline int get_rx_desc_paggr(__le32 *__pdesc)
424 {
425 return le32_get_bits(*(__pdesc + 1), BIT(15));
426 }
427
get_rx_status_desc_rpt_sel(__le32 * __pdesc)428 static inline int get_rx_status_desc_rpt_sel(__le32 *__pdesc)
429 {
430 return le32_get_bits(*(__pdesc + 2), BIT(28));
431 }
432
get_rx_desc_rxmcs(__le32 * __pdesc)433 static inline int get_rx_desc_rxmcs(__le32 *__pdesc)
434 {
435 return le32_get_bits(*(__pdesc + 3), GENMASK(6, 0));
436 }
437
get_rx_status_desc_pattern_match(__le32 * __pdesc)438 static inline int get_rx_status_desc_pattern_match(__le32 *__pdesc)
439 {
440 return le32_get_bits(*(__pdesc + 3), BIT(29));
441 }
442
get_rx_status_desc_unicast_match(__le32 * __pdesc)443 static inline int get_rx_status_desc_unicast_match(__le32 *__pdesc)
444 {
445 return le32_get_bits(*(__pdesc + 3), BIT(30));
446 }
447
get_rx_status_desc_magic_match(__le32 * __pdesc)448 static inline int get_rx_status_desc_magic_match(__le32 *__pdesc)
449 {
450 return le32_get_bits(*(__pdesc + 3), BIT(31));
451 }
452
get_rx_desc_tsfl(__le32 * __pdesc)453 static inline u32 get_rx_desc_tsfl(__le32 *__pdesc)
454 {
455 return le32_to_cpu(*((__pdesc + 5)));
456 }
457
get_rx_desc_buff_addr(__le32 * __pdesc)458 static inline u32 get_rx_desc_buff_addr(__le32 *__pdesc)
459 {
460 return le32_to_cpu(*((__pdesc + 6)));
461 }
462
463 /* TX report 2 format in Rx desc*/
464
get_rx_rpt2_desc_macid_valid_1(__le32 * __status)465 static inline u32 get_rx_rpt2_desc_macid_valid_1(__le32 *__status)
466 {
467 return le32_to_cpu(*((__status + 4)));
468 }
469
get_rx_rpt2_desc_macid_valid_2(__le32 * __status)470 static inline u32 get_rx_rpt2_desc_macid_valid_2(__le32 *__status)
471 {
472 return le32_to_cpu(*((__status + 5)));
473 }
474
clear_pci_tx_desc_content(__le32 * __pdesc,int _size)475 static inline void clear_pci_tx_desc_content(__le32 *__pdesc, int _size)
476 {
477 if (_size > TX_DESC_NEXT_DESC_OFFSET)
478 memset(__pdesc, 0, TX_DESC_NEXT_DESC_OFFSET);
479 else
480 memset(__pdesc, 0, _size);
481 }
482
483 #define RTL92EE_RX_HAL_IS_CCK_RATE(rxmcs)\
484 (rxmcs == DESC_RATE1M ||\
485 rxmcs == DESC_RATE2M ||\
486 rxmcs == DESC_RATE5_5M ||\
487 rxmcs == DESC_RATE11M)
488
489 #define IS_LITTLE_ENDIAN 1
490
491 struct phy_rx_agc_info_t {
492 #if IS_LITTLE_ENDIAN
493 u8 gain:7, trsw:1;
494 #else
495 u8 trsw:1, gain:7;
496 #endif
497 };
498
499 struct phy_status_rpt {
500 struct phy_rx_agc_info_t path_agc[2];
501 u8 ch_corr[2];
502 u8 cck_sig_qual_ofdm_pwdb_all;
503 u8 cck_agc_rpt_ofdm_cfosho_a;
504 u8 cck_rpt_b_ofdm_cfosho_b;
505 u8 rsvd_1;
506 u8 noise_power_db_msb;
507 u8 path_cfotail[2];
508 u8 pcts_mask[2];
509 u8 stream_rxevm[2];
510 u8 path_rxsnr[2];
511 u8 noise_power_db_lsb;
512 u8 rsvd_2[3];
513 u8 stream_csi[2];
514 u8 stream_target_csi[2];
515 u8 sig_evm;
516 u8 rsvd_3;
517 #if IS_LITTLE_ENDIAN
518 u8 antsel_rx_keep_2:1; /*ex_intf_flg:1;*/
519 u8 sgi_en:1;
520 u8 rxsc:2;
521 u8 idle_long:1;
522 u8 r_ant_train_en:1;
523 u8 ant_sel_b:1;
524 u8 ant_sel:1;
525 #else /* _BIG_ENDIAN_ */
526 u8 ant_sel:1;
527 u8 ant_sel_b:1;
528 u8 r_ant_train_en:1;
529 u8 idle_long:1;
530 u8 rxsc:2;
531 u8 sgi_en:1;
532 u8 antsel_rx_keep_2:1; /*ex_intf_flg:1;*/
533 #endif
534 } __packed;
535
536 struct rx_fwinfo {
537 u8 gain_trsw[4];
538 u8 pwdb_all;
539 u8 cfosho[4];
540 u8 cfotail[4];
541 s8 rxevm[2];
542 s8 rxsnr[4];
543 u8 pdsnr[2];
544 u8 csi_current[2];
545 u8 csi_target[2];
546 u8 sigevm;
547 u8 max_ex_pwr;
548 u8 ex_intf_flag:1;
549 u8 sgi_en:1;
550 u8 rxsc:2;
551 u8 reserve:4;
552 } __packed;
553
554 struct tx_desc {
555 u32 pktsize:16;
556 u32 offset:8;
557 u32 bmc:1;
558 u32 htc:1;
559 u32 lastseg:1;
560 u32 firstseg:1;
561 u32 linip:1;
562 u32 noacm:1;
563 u32 gf:1;
564 u32 own:1;
565
566 u32 macid:6;
567 u32 rsvd0:2;
568 u32 queuesel:5;
569 u32 rd_nav_ext:1;
570 u32 lsig_txop_en:1;
571 u32 pifs:1;
572 u32 rateid:4;
573 u32 nav_usehdr:1;
574 u32 en_descid:1;
575 u32 sectype:2;
576 u32 pktoffset:8;
577
578 u32 rts_rc:6;
579 u32 data_rc:6;
580 u32 agg_en:1;
581 u32 rdg_en:1;
582 u32 bar_retryht:2;
583 u32 agg_break:1;
584 u32 morefrag:1;
585 u32 raw:1;
586 u32 ccx:1;
587 u32 ampdudensity:3;
588 u32 bt_int:1;
589 u32 ant_sela:1;
590 u32 ant_selb:1;
591 u32 txant_cck:2;
592 u32 txant_l:2;
593 u32 txant_ht:2;
594
595 u32 nextheadpage:8;
596 u32 tailpage:8;
597 u32 seq:12;
598 u32 cpu_handle:1;
599 u32 tag1:1;
600 u32 trigger_int:1;
601 u32 hwseq_en:1;
602
603 u32 rtsrate:5;
604 u32 apdcfe:1;
605 u32 qos:1;
606 u32 hwseq_ssn:1;
607 u32 userrate:1;
608 u32 dis_rtsfb:1;
609 u32 dis_datafb:1;
610 u32 cts2self:1;
611 u32 rts_en:1;
612 u32 hwrts_en:1;
613 u32 portid:1;
614 u32 pwr_status:3;
615 u32 waitdcts:1;
616 u32 cts2ap_en:1;
617 u32 txsc:2;
618 u32 stbc:2;
619 u32 txshort:1;
620 u32 txbw:1;
621 u32 rtsshort:1;
622 u32 rtsbw:1;
623 u32 rtssc:2;
624 u32 rtsstbc:2;
625
626 u32 txrate:6;
627 u32 shortgi:1;
628 u32 ccxt:1;
629 u32 txrate_fb_lmt:5;
630 u32 rtsrate_fb_lmt:4;
631 u32 retrylmt_en:1;
632 u32 txretrylmt:6;
633 u32 usb_txaggnum:8;
634
635 u32 txagca:5;
636 u32 txagcb:5;
637 u32 usemaxlen:1;
638 u32 maxaggnum:5;
639 u32 mcsg1maxlen:4;
640 u32 mcsg2maxlen:4;
641 u32 mcsg3maxlen:4;
642 u32 mcs7sgimaxlen:4;
643
644 u32 txbuffersize:16;
645 u32 sw_offset30:8;
646 u32 sw_offset31:4;
647 u32 rsvd1:1;
648 u32 antsel_c:1;
649 u32 null_0:1;
650 u32 null_1:1;
651
652 u32 txbuffaddr;
653 u32 txbufferaddr64;
654 u32 nextdescaddress;
655 u32 nextdescaddress64;
656
657 u32 reserve_pass_pcie_mm_limit[4];
658 } __packed;
659
660 struct rx_desc {
661 u32 length:14;
662 u32 crc32:1;
663 u32 icverror:1;
664 u32 drv_infosize:4;
665 u32 security:3;
666 u32 qos:1;
667 u32 shift:2;
668 u32 phystatus:1;
669 u32 swdec:1;
670 u32 lastseg:1;
671 u32 firstseg:1;
672 u32 eor:1;
673 u32 own:1;
674
675 u32 macid:6;
676 u32 tid:4;
677 u32 hwrsvd:5;
678 u32 paggr:1;
679 u32 faggr:1;
680 u32 a1_fit:4;
681 u32 a2_fit:4;
682 u32 pam:1;
683 u32 pwr:1;
684 u32 moredata:1;
685 u32 morefrag:1;
686 u32 type:2;
687 u32 mc:1;
688 u32 bc:1;
689
690 u32 seq:12;
691 u32 frag:4;
692 u32 nextpktlen:14;
693 u32 nextind:1;
694 u32 rsvd:1;
695
696 u32 rxmcs:6;
697 u32 rxht:1;
698 u32 amsdu:1;
699 u32 splcp:1;
700 u32 bandwidth:1;
701 u32 htc:1;
702 u32 tcpchk_rpt:1;
703 u32 ipcchk_rpt:1;
704 u32 tcpchk_valid:1;
705 u32 hwpcerr:1;
706 u32 hwpcind:1;
707 u32 iv0:16;
708
709 u32 iv1;
710
711 u32 tsfl;
712
713 u32 bufferaddress;
714 u32 bufferaddress64;
715
716 } __packed;
717
718 void rtl92ee_rx_check_dma_ok(struct ieee80211_hw *hw, u8 *header_desc,
719 u8 queue_index);
720 u16 rtl92ee_rx_desc_buff_remained_cnt(struct ieee80211_hw *hw,
721 u8 queue_index);
722 u16 rtl92ee_get_available_desc(struct ieee80211_hw *hw, u8 queue_index);
723
724 void rtl92ee_tx_fill_desc(struct ieee80211_hw *hw,
725 struct ieee80211_hdr *hdr, u8 *pdesc_tx,
726 u8 *pbd_desc_tx,
727 struct ieee80211_tx_info *info,
728 struct ieee80211_sta *sta,
729 struct sk_buff *skb,
730 u8 hw_queue, struct rtl_tcb_desc *ptcb_desc);
731 bool rtl92ee_rx_query_desc(struct ieee80211_hw *hw,
732 struct rtl_stats *status,
733 struct ieee80211_rx_status *rx_status,
734 u8 *pdesc, struct sk_buff *skb);
735 void rtl92ee_set_desc(struct ieee80211_hw *hw, u8 *pdesc, bool istx,
736 u8 desc_name, u8 *val);
737
738 u64 rtl92ee_get_desc(struct ieee80211_hw *hw,
739 u8 *pdesc, bool istx, u8 desc_name);
740 bool rtl92ee_is_tx_desc_closed(struct ieee80211_hw *hw, u8 hw_queue, u16 index);
741 void rtl92ee_tx_polling(struct ieee80211_hw *hw, u8 hw_queue);
742 void rtl92ee_tx_fill_cmddesc(struct ieee80211_hw *hw, u8 *pdesc,
743 struct sk_buff *skb);
744 #endif
745