xref: /titanic_51/usr/src/uts/common/io/atge/atge_l1c.c (revision 5e8715b93d1d651ab2805b5e6e98b17df49fa92f)
1 /*
2  * CDDL HEADER START
3  *
4  * The contents of this file are subject to the terms of the
5  * Common Development and Distribution License (the "License").
6  * You may not use this file except in compliance with the License.
7  *
8  * You can obtain a copy of the license at usr/src/OPENSOLARIS.LICENSE
9  * or http://www.opensolaris.org/os/licensing.
10  * See the License for the specific language governing permissions
11  * and limitations under the License.
12  *
13  * When distributing Covered Code, include this CDDL HEADER in each
14  * file and include the License file at usr/src/OPENSOLARIS.LICENSE.
15  * If applicable, add the following below this CDDL HEADER, with the
16  * fields enclosed by brackets "[]" replaced with your own identifying
17  * information: Portions Copyright [yyyy] [name of copyright owner]
18  *
19  * CDDL HEADER END
20  */
21 
22 /*
23  * Copyright (c) 2012 Gary Mills
24  *
25  * Copyright 2009 Sun Microsystems, Inc.  All rights reserved.
26  * Use is subject to license terms.
27  */
28 /*
29  * Copyright (c) 2009, Pyun YongHyeon <yongari@FreeBSD.org>
30  * All rights reserved.
31  *
32  * Redistribution and use in source and binary forms, with or without
33  * modification, are permitted provided that the following conditions
34  * are met:
35  * 1. Redistributions of source code must retain the above copyright
36  *    notice unmodified, this list of conditions, and the following
37  *    disclaimer.
38  * 2. Redistributions in binary form must reproduce the above copyright
39  *    notice, this list of conditions and the following disclaimer in the
40  *    documentation and/or other materials provided with the distribution.
41  *
42  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
43  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
44  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
45  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
46  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
47  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
48  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
49  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
50  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
51  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
52  * SUCH DAMAGE.
53  */
54 
55 #include <sys/types.h>
56 #include <sys/stream.h>
57 #include <sys/strsun.h>
58 #include <sys/stat.h>
59 #include <sys/modctl.h>
60 #include <sys/ethernet.h>
61 #include <sys/debug.h>
62 #include <sys/conf.h>
63 #include <sys/mii.h>
64 #include <sys/miiregs.h>
65 #include <sys/sysmacros.h>
66 #include <sys/dditypes.h>
67 #include <sys/ddi.h>
68 #include <sys/sunddi.h>
69 #include <sys/byteorder.h>
70 #include <sys/note.h>
71 #include <sys/vlan.h>
72 #include <sys/stream.h>
73 
74 #include "atge.h"
75 #include "atge_l1c_reg.h"
76 #include "atge_cmn_reg.h"
77 
78 static ddi_dma_attr_t atge_l1c_dma_attr_tx_desc = {
79 	DMA_ATTR_V0,		/* dma_attr_version */
80 	0,			/* dma_attr_addr_lo */
81 	0x0000ffffffffull,	/* dma_attr_addr_hi */
82 	0x0000ffffffffull,	/* dma_attr_count_max */
83 	L1C_TX_RING_ALIGN,	/* dma_attr_align */
84 	0x0000fffc,		/* dma_attr_burstsizes */
85 	1,			/* dma_attr_minxfer */
86 	0x0000ffffffffull,	/* dma_attr_maxxfer */
87 	0x0000ffffffffull,	/* dma_attr_seg */
88 	1,			/* dma_attr_sgllen */
89 	1,			/* dma_attr_granular */
90 	0			/* dma_attr_flags */
91 };
92 
93 static ddi_dma_attr_t atge_l1c_dma_attr_rx_desc = {
94 	DMA_ATTR_V0,		/* dma_attr_version */
95 	0,			/* dma_attr_addr_lo */
96 	0x0000ffffffffull,	/* dma_attr_addr_hi */
97 	0x0000ffffffffull,	/* dma_attr_count_max */
98 	L1C_RX_RING_ALIGN,	/* dma_attr_align */
99 	0x0000fffc,		/* dma_attr_burstsizes */
100 	1,			/* dma_attr_minxfer */
101 	0x0000ffffffffull,	/* dma_attr_maxxfer */
102 	0x0000ffffffffull,	/* dma_attr_seg */
103 	1,			/* dma_attr_sgllen */
104 	1,			/* dma_attr_granular */
105 	0			/* dma_attr_flags */
106 };
107 
108 static ddi_dma_attr_t atge_l1c_dma_attr_cmb = {
109 	DMA_ATTR_V0,		/* dma_attr_version */
110 	0,			/* dma_attr_addr_lo */
111 	0x0000ffffffffull,	/* dma_attr_addr_hi */
112 	0x0000ffffffffull,	/* dma_attr_count_max */
113 	L1C_CMB_ALIGN,		/* dma_attr_align */
114 	0x0000fffc,		/* dma_attr_burstsizes */
115 	1,			/* dma_attr_minxfer */
116 	0x0000ffffffffull,	/* dma_attr_maxxfer */
117 	0x0000ffffffffull,	/* dma_attr_seg */
118 	1,			/* dma_attr_sgllen */
119 	1,			/* dma_attr_granular */
120 	0			/* dma_attr_flags */
121 };
122 
123 static ddi_dma_attr_t atge_l1c_dma_attr_smb = {
124 	DMA_ATTR_V0,		/* dma_attr_version */
125 	0,			/* dma_attr_addr_lo */
126 	0x0000ffffffffull,	/* dma_attr_addr_hi */
127 	0x0000ffffffffull,	/* dma_attr_count_max */
128 	L1C_SMB_ALIGN,		/* dma_attr_align */
129 	0x0000fffc,		/* dma_attr_burstsizes */
130 	1,			/* dma_attr_minxfer */
131 	0x0000ffffffffull,	/* dma_attr_maxxfer */
132 	0x0000ffffffffull,	/* dma_attr_seg */
133 	1,			/* dma_attr_sgllen */
134 	1,			/* dma_attr_granular */
135 	0			/* dma_attr_flags */
136 };
137 
138 static ddi_dma_attr_t atge_l1c_dma_attr_rr = {
139 	DMA_ATTR_V0,		/* dma_attr_version */
140 	0,			/* dma_attr_addr_lo */
141 	0x0000ffffffffull,	/* dma_attr_addr_hi */
142 	0x0000ffffffffull,	/* dma_attr_count_max */
143 	L1C_RR_RING_ALIGN,	/* dma_attr_align */
144 	0x0000fffc,		/* dma_attr_burstsizes */
145 	1,			/* dma_attr_minxfer */
146 	0x0000ffffffffull,	/* dma_attr_maxxfer */
147 	0x0000ffffffffull,	/* dma_attr_seg */
148 	1,			/* dma_attr_sgllen */
149 	1,			/* dma_attr_granular */
150 	0			/* dma_attr_flags */
151 };
152 
153 int
154 atge_l1c_alloc_dma(atge_t *atgep)
155 {
156 	atge_l1c_data_t *l1c;
157 	atge_dma_t *dma;
158 	int err;
159 
160 	l1c = kmem_zalloc(sizeof (atge_l1c_data_t), KM_SLEEP);
161 	atgep->atge_private_data = l1c;
162 
163 	/*
164 	 * Allocate TX ring descriptor.
165 	 */
166 	atgep->atge_tx_buf_len = atgep->atge_mtu +
167 	    sizeof (struct ether_header) + VLAN_TAGSZ + ETHERFCSL;
168 	atgep->atge_tx_ring = kmem_alloc(sizeof (atge_ring_t), KM_SLEEP);
169 	atgep->atge_tx_ring->r_atge = atgep;
170 	atgep->atge_tx_ring->r_desc_ring = NULL;
171 	dma = atge_alloc_a_dma_blk(atgep, &atge_l1c_dma_attr_tx_desc,
172 	    ATGE_TX_RING_SZ, DDI_DMA_RDWR);
173 	if (dma == NULL) {
174 		atge_error(atgep->atge_dip, "DMA allocation failed for TX"
175 		    " desc ring");
176 		return (DDI_FAILURE);
177 	}
178 	atgep->atge_tx_ring->r_desc_ring = dma;
179 
180 	/*
181 	 * Allocate DMA buffers for TX ring.
182 	 */
183 	err = atge_alloc_buffers(atgep->atge_tx_ring, ATGE_TX_RING_CNT,
184 	    atgep->atge_tx_buf_len, DDI_DMA_WRITE);
185 	if (err != DDI_SUCCESS) {
186 		atge_error(atgep->atge_dip, "DMA allocation failed for"
187 		    " TX Ring");
188 		return (err);
189 	}
190 
191 	/*
192 	 * Allocate RX ring.
193 	 */
194 	atgep->atge_rx_buf_len = atgep->atge_mtu +
195 	    sizeof (struct ether_header) + VLAN_TAGSZ + ETHERFCSL;
196 	l1c->atge_rx_ring = kmem_alloc(sizeof (atge_ring_t), KM_SLEEP);
197 	l1c->atge_rx_ring->r_atge = atgep;
198 	l1c->atge_rx_ring->r_desc_ring = NULL;
199 	dma = atge_alloc_a_dma_blk(atgep, &atge_l1c_dma_attr_rx_desc,
200 	    L1C_RX_RING_SZ, DDI_DMA_RDWR);
201 	if (dma == NULL) {
202 		atge_error(atgep->atge_dip, "DMA allocation failed"
203 		    " for RX Ring");
204 		return (DDI_FAILURE);
205 	}
206 	l1c->atge_rx_ring->r_desc_ring = dma;
207 
208 	/*
209 	 * Allocate DMA buffers for RX ring.
210 	 */
211 	err = atge_alloc_buffers(l1c->atge_rx_ring, L1C_RX_RING_CNT,
212 	    atgep->atge_rx_buf_len, DDI_DMA_READ);
213 	if (err != DDI_SUCCESS) {
214 		atge_error(atgep->atge_dip, "DMA allocation failed for"
215 		    " RX buffers");
216 		return (err);
217 	}
218 
219 	/*
220 	 * Allocate CMB used for fetching interrupt status data.
221 	 */
222 	ATGE_DB(("%s: %s() L1C_CMB_BLOCK_SZ : 0x%x", atgep->atge_name,
223 	    __func__, L1C_CMB_BLOCK_SZ));
224 
225 	dma = atge_alloc_a_dma_blk(atgep, &atge_l1c_dma_attr_cmb,
226 	    L1C_CMB_BLOCK_SZ, DDI_DMA_RDWR);
227 	l1c->atge_l1c_cmb = dma;
228 	if (dma == NULL) {
229 		atge_error(atgep->atge_dip, "DMA allocation failed for CMB");
230 		return (DDI_FAILURE);
231 	}
232 
233 	/*
234 	 * RR ring (Return Ring for RX and TX).
235 	 */
236 	ATGE_DB(("%s: %s() L1C_RR_RING_SZ : 0x%x", atgep->atge_name,
237 	    __func__, L1C_RR_RING_SZ));
238 
239 	dma = atge_alloc_a_dma_blk(atgep, &atge_l1c_dma_attr_rr,
240 	    L1C_RR_RING_SZ, DDI_DMA_RDWR);
241 	l1c->atge_l1c_rr = dma;
242 	if (dma == NULL) {
243 		atge_error(atgep->atge_dip, "DMA allocation failed"
244 		    " for RX RR ring");
245 		return (DDI_FAILURE);
246 	}
247 
248 	/*
249 	 * SMB for statistics.
250 	 */
251 	ATGE_DB(("%s: %s() L1C_SMB_BLOCK_SZ : 0x%x", atgep->atge_name,
252 	    __func__, L1C_SMB_BLOCK_SZ));
253 
254 	dma = atge_alloc_a_dma_blk(atgep, &atge_l1c_dma_attr_smb,
255 	    L1C_SMB_BLOCK_SZ, DDI_DMA_RDWR);
256 	l1c->atge_l1c_smb = dma;
257 	if (dma == NULL) {
258 		atge_error(atgep->atge_dip, "DMA allocation failed for SMB");
259 		return (DDI_FAILURE);
260 	}
261 
262 	atgep->atge_hw_stats = kmem_zalloc(sizeof (atge_l1c_smb_t), KM_SLEEP);
263 
264 	return (DDI_SUCCESS);
265 }
266 
267 void
268 atge_l1c_free_dma(atge_t *atgep)
269 {
270 	atge_l1c_data_t *l1c;
271 
272 	l1c = atgep->atge_private_data;
273 
274 	/*
275 	 * Free TX ring.
276 	 */
277 	if (atgep->atge_tx_ring != NULL) {
278 		atge_free_buffers(atgep->atge_tx_ring,  ATGE_TX_RING_CNT);
279 
280 		if (atgep->atge_tx_ring->r_desc_ring != NULL) {
281 			atge_free_a_dma_blk(atgep->atge_tx_ring->r_desc_ring);
282 		}
283 
284 		kmem_free(atgep->atge_tx_ring, sizeof (atge_ring_t));
285 		atgep->atge_tx_ring = NULL;
286 	}
287 
288 	if (l1c && l1c->atge_l1c_cmb != NULL) {
289 		atge_free_a_dma_blk(l1c->atge_l1c_cmb);
290 		l1c->atge_l1c_cmb = NULL;
291 	}
292 
293 	if (l1c && l1c->atge_l1c_rr != NULL) {
294 		atge_free_a_dma_blk(l1c->atge_l1c_rr);
295 		l1c->atge_l1c_rr = NULL;
296 	}
297 
298 	if (l1c && l1c->atge_l1c_smb != NULL) {
299 		atge_free_a_dma_blk(l1c->atge_l1c_smb);
300 		l1c->atge_l1c_smb = NULL;
301 	}
302 
303 	/*
304 	 * Free RX ring.
305 	 */
306 	if (l1c && l1c->atge_rx_ring != NULL) {
307 		atge_free_buffers(l1c->atge_rx_ring,  L1C_RX_RING_CNT);
308 
309 		if (l1c->atge_rx_ring->r_desc_ring != NULL) {
310 			atge_free_a_dma_blk(l1c->atge_rx_ring->r_desc_ring);
311 		}
312 
313 		kmem_free(l1c->atge_rx_ring, sizeof (atge_ring_t));
314 		l1c->atge_rx_ring = NULL;
315 	}
316 
317 	/*
318 	 * Free the memory allocated for gathering hw stats.
319 	 */
320 	if (atgep->atge_hw_stats != NULL) {
321 		kmem_free(atgep->atge_hw_stats, sizeof (atge_l1c_smb_t));
322 		atgep->atge_hw_stats = NULL;
323 	}
324 
325 	/*
326 	 * Free the private area.
327 	 */
328 	if (l1c != NULL) {
329 		kmem_free(l1c, sizeof (atge_l1c_data_t));
330 		atgep->atge_private_data = NULL;
331 	}
332 }
333 
334 void
335 atge_l1c_init_rx_ring(atge_t *atgep)
336 {
337 	atge_l1c_data_t *l1c;
338 	atge_dma_t *dma;
339 	l1c_rx_desc_t *rx;
340 	int i;
341 
342 	l1c = atgep->atge_private_data;
343 	l1c->atge_rx_ring->r_consumer = L1C_RX_RING_CNT - 1;
344 	dma = l1c->atge_rx_ring->r_desc_ring;
345 	bzero(dma->addr, L1C_RX_RING_SZ);
346 
347 	for (i = 0; i < L1C_RX_RING_CNT; i++) {
348 		rx = (l1c_rx_desc_t *)(dma->addr +
349 		    (i * sizeof (l1c_rx_desc_t)));
350 
351 		ATGE_PUT64(dma, &rx->addr,
352 		    l1c->atge_rx_ring->r_buf_tbl[i]->cookie.dmac_laddress);
353 		/* No length field. */
354 	}
355 
356 	DMA_SYNC(dma, 0, 0, DDI_DMA_SYNC_FORDEV);
357 	/* Let controller know availability of new Rx buffers. */
358 	OUTL(atgep, ATGE_MBOX_RD0_PROD_IDX, l1c->atge_rx_ring->r_consumer);
359 }
360 
361 void
362 atge_l1c_init_tx_ring(atge_t *atgep)
363 {
364 	atgep->atge_tx_ring->r_producer = 0;
365 	atgep->atge_tx_ring->r_consumer = 0;
366 	atgep->atge_tx_ring->r_avail_desc = ATGE_TX_RING_CNT;
367 
368 	bzero(atgep->atge_tx_ring->r_desc_ring->addr, ATGE_TX_RING_SZ);
369 	DMA_SYNC(atgep->atge_tx_ring->r_desc_ring, 0, 0, DDI_DMA_SYNC_FORDEV);
370 }
371 
372 void
373 atge_l1c_init_rr_ring(atge_t *atgep)
374 {
375 	atge_l1c_data_t *l1c;
376 	atge_dma_t *dma;
377 
378 	l1c = atgep->atge_private_data;
379 	l1c->atge_l1c_rr_consumers = 0;
380 
381 	dma = l1c->atge_l1c_rr;
382 	bzero(dma->addr, L1C_RR_RING_SZ);
383 	DMA_SYNC(dma, 0, 0, DDI_DMA_SYNC_FORDEV);
384 }
385 
386 void
387 atge_l1c_init_smb(atge_t *atgep)
388 {
389 	atge_l1c_data_t *l1c;
390 	atge_dma_t *dma;
391 
392 	l1c = atgep->atge_private_data;
393 	dma = l1c->atge_l1c_smb;
394 	bzero(dma->addr, L1C_SMB_BLOCK_SZ);
395 	DMA_SYNC(dma, 0, 0, DDI_DMA_SYNC_FORDEV);
396 }
397 
398 void
399 atge_l1c_init_cmb(atge_t *atgep)
400 {
401 	atge_l1c_data_t *l1c;
402 	atge_dma_t *dma;
403 
404 	l1c = atgep->atge_private_data;
405 	dma = l1c->atge_l1c_cmb;
406 	bzero(dma->addr, L1C_CMB_BLOCK_SZ);
407 	DMA_SYNC(dma, 0, 0, DDI_DMA_SYNC_FORDEV);
408 }
409 
410 void
411 atge_l1c_program_dma(atge_t *atgep)
412 {
413 	atge_l1c_data_t *l1c;
414 	atge_ring_t *r;
415 	uint32_t reg;
416 
417 	l1c = atgep->atge_private_data;
418 
419 	/*
420 	 * Clear WOL status and disable all WOL feature as WOL
421 	 * would interfere Rx operation under normal environments.
422 	 */
423 	(void) INL(atgep, ATGE_WOL_CFG);
424 	OUTL(atgep, ATGE_WOL_CFG, 0);
425 
426 	/* TX */
427 	r = atgep->atge_tx_ring;
428 	OUTL(atgep, L1C_TX_BASE_ADDR_HI,
429 	    ATGE_ADDR_HI(r->r_desc_ring->cookie.dmac_laddress));
430 	OUTL(atgep, L1C_TDL_HEAD_ADDR_LO,
431 	    ATGE_ADDR_LO(r->r_desc_ring->cookie.dmac_laddress));
432 	/* We don't use high priority ring. */
433 	OUTL(atgep, L1C_TDH_HEAD_ADDR_LO, 0);
434 
435 	/* RX */
436 	r = l1c->atge_rx_ring;
437 	OUTL(atgep, L1C_RX_BASE_ADDR_HI,
438 	    ATGE_ADDR_HI(r->r_desc_ring->cookie.dmac_laddress));
439 	OUTL(atgep, L1C_RD0_HEAD_ADDR_LO,
440 	    ATGE_ADDR_LO(r->r_desc_ring->cookie.dmac_laddress));
441 	/* We use one Rx ring. */
442 	OUTL(atgep, L1C_RD1_HEAD_ADDR_LO, 0);
443 	OUTL(atgep, L1C_RD2_HEAD_ADDR_LO, 0);
444 	OUTL(atgep, L1C_RD3_HEAD_ADDR_LO, 0);
445 
446 	/* RR Ring */
447 	/*
448 	 * Let hardware split jumbo frames into alc_max_buf_sized chunks.
449 	 * if it do not fit the buffer size. Rx return descriptor holds
450 	 * a counter that indicates how many fragments were made by the
451 	 * hardware. The buffer size should be multiple of 8 bytes.
452 	 * Since hardware has limit on the size of buffer size, always
453 	 * use the maximum value.
454 	 * For strict-alignment architectures make sure to reduce buffer
455 	 * size by 8 bytes to make room for alignment fixup.
456 	 */
457 	OUTL(atgep, L1C_RX_BUF_SIZE, RX_BUF_SIZE_MAX); /* XXX */
458 
459 	/* Set Rx return descriptor base addresses. */
460 	OUTL(atgep, L1C_RRD0_HEAD_ADDR_LO,
461 	    ATGE_ADDR_LO(l1c->atge_l1c_rr->cookie.dmac_laddress));
462 	/* We use one Rx return ring. */
463 	OUTL(atgep, L1C_RRD1_HEAD_ADDR_LO, 0);
464 	OUTL(atgep, L1C_RRD2_HEAD_ADDR_LO, 0);
465 	OUTL(atgep, L1C_RRD3_HEAD_ADDR_LO, 0);
466 
467 	/* CMB */
468 	OUTL(atgep, L1C_CMB_BASE_ADDR_LO,
469 	    ATGE_ADDR_LO(l1c->atge_l1c_cmb->cookie.dmac_laddress));
470 
471 	/* SMB */
472 	OUTL(atgep, L1C_SMB_BASE_ADDR_HI,
473 	    ATGE_ADDR_HI(l1c->atge_l1c_smb->cookie.dmac_laddress));
474 	OUTL(atgep, L1C_SMB_BASE_ADDR_LO,
475 	    ATGE_ADDR_LO(l1c->atge_l1c_smb->cookie.dmac_laddress));
476 
477 	/*
478 	 * Set RX return ring (RR) counter.
479 	 */
480 	/* Set Rx descriptor counter. */
481 	OUTL(atgep, L1C_RD_RING_CNT,
482 	    (L1C_RX_RING_CNT << RD_RING_CNT_SHIFT) & RD_RING_CNT_MASK);
483 	/* Set Rx return descriptor counter. */
484 	OUTL(atgep, L1C_RRD_RING_CNT,
485 	    (L1C_RR_RING_CNT << RRD_RING_CNT_SHIFT) & RRD_RING_CNT_MASK);
486 
487 	/*
488 	 * Set TX descriptor counter.
489 	 */
490 	OUTL(atgep, L1C_TD_RING_CNT,
491 	    (ATGE_TX_RING_CNT << TD_RING_CNT_SHIFT) & TD_RING_CNT_MASK);
492 
493 	switch (ATGE_DID(atgep)) {
494 	case ATGE_CHIP_AR8152V1_DEV_ID:
495 		/* Reconfigure SRAM - Vendor magic. */
496 		OUTL(atgep, L1C_SRAM_RX_FIFO_LEN, 0x000002A0);
497 		OUTL(atgep, L1C_SRAM_TX_FIFO_LEN, 0x00000100);
498 		OUTL(atgep, L1C_SRAM_RX_FIFO_ADDR, 0x029F0000);
499 		OUTL(atgep, L1C_SRAM_RD_ADDR, 0x02BF02A0);
500 		OUTL(atgep, L1C_SRAM_TX_FIFO_ADDR, 0x03BF02C0);
501 		OUTL(atgep, L1C_SRAM_TRD_ADDR, 0x03DF03C0);
502 		OUTL(atgep, L1C_TXF_WATER_MARK, 0x00000000);
503 		OUTL(atgep, L1C_RD_DMA_CFG, 0x00000000);
504 		break;
505 	}
506 
507 	/*
508 	 * Inform hardware that we have loaded DMA registers.
509 	 */
510 	OUTL(atgep, ATGE_DMA_BLOCK, DMA_BLOCK_LOAD);
511 
512 	/* Configure interrupt moderation timer. */
513 	reg = ATGE_USECS(atgep->atge_int_rx_mod) << IM_TIMER_RX_SHIFT;
514 	reg |= ATGE_USECS(atgep->atge_int_tx_mod) << IM_TIMER_TX_SHIFT;
515 	OUTL(atgep, ATGE_IM_TIMER, reg);
516 	/*
517 	 * We don't want to automatic interrupt clear as task queue
518 	 * for the interrupt should know interrupt status.
519 	 */
520 	reg = 0;
521 	if (ATGE_USECS(atgep->atge_int_rx_mod) != 0)
522 		reg |= MASTER_IM_RX_TIMER_ENB;
523 	if (ATGE_USECS(atgep->atge_int_tx_mod) != 0)
524 		reg |= MASTER_IM_TX_TIMER_ENB;
525 	OUTL(atgep, ATGE_MASTER_CFG, reg);
526 }
527 
528 void
529 atge_l1c_clear_stats(atge_t *atgep)
530 {
531 	atge_l1c_smb_t smb;
532 	uint32_t *reg;
533 	int i;
534 
535 	/*
536 	 * Clear RX stats first.
537 	 */
538 	i = 0;
539 	reg = &smb.rx_frames;
540 	while (reg++ <= &smb.rx_pkts_filtered) {
541 		(void) INL(atgep, ATGE_RX_MIB_BASE + i);
542 		i += sizeof (uint32_t);
543 	}
544 
545 	/*
546 	 * Clear TX stats.
547 	 */
548 	i = 0;
549 	reg = &smb.tx_frames;
550 	while (reg++ <= &smb.tx_mcast_bytes) {
551 		(void) INL(atgep, ATGE_TX_MIB_BASE + i);
552 		i += sizeof (uint32_t);
553 	}
554 }
555 
556 void
557 atge_l1c_gather_stats(atge_t *atgep)
558 {
559 	atge_l1c_data_t *l1c;
560 	atge_dma_t *dma;
561 	atge_l1c_smb_t *stat;
562 	atge_l1c_smb_t *smb;
563 
564 	ASSERT(atgep != NULL);
565 
566 	l1c = atgep->atge_private_data;
567 	dma = l1c->atge_l1c_smb;
568 	DMA_SYNC(dma, 0, 0, DDI_DMA_SYNC_FORKERNEL);
569 	stat = (atge_l1c_smb_t *)atgep->atge_hw_stats;
570 	smb = (atge_l1c_smb_t *)dma->addr;
571 
572 	/* Rx stats. */
573 	stat->rx_frames += smb->rx_frames;
574 	stat->rx_bcast_frames += smb->rx_bcast_frames;
575 	stat->rx_mcast_frames += smb->rx_mcast_frames;
576 	stat->rx_pause_frames += smb->rx_pause_frames;
577 	stat->rx_control_frames += smb->rx_control_frames;
578 	stat->rx_crcerrs += smb->rx_crcerrs;
579 	stat->rx_lenerrs += smb->rx_lenerrs;
580 	stat->rx_bytes += smb->rx_bytes;
581 	stat->rx_runts += smb->rx_runts;
582 	stat->rx_fragments += smb->rx_fragments;
583 	stat->rx_pkts_64 += smb->rx_pkts_64;
584 	stat->rx_pkts_65_127 += smb->rx_pkts_65_127;
585 	stat->rx_pkts_128_255 += smb->rx_pkts_128_255;
586 	stat->rx_pkts_256_511 += smb->rx_pkts_256_511;
587 	stat->rx_pkts_512_1023 += smb->rx_pkts_512_1023;
588 	stat->rx_pkts_1024_1518 += smb->rx_pkts_1024_1518;
589 	stat->rx_pkts_1519_max += smb->rx_pkts_1519_max;
590 	stat->rx_pkts_truncated += smb->rx_pkts_truncated;
591 	stat->rx_fifo_oflows += smb->rx_fifo_oflows;
592 	stat->rx_alignerrs += smb->rx_alignerrs;
593 	stat->rx_bcast_bytes += smb->rx_bcast_bytes;
594 	stat->rx_mcast_bytes += smb->rx_mcast_bytes;
595 	stat->rx_pkts_filtered += smb->rx_pkts_filtered;
596 
597 	/* Tx stats. */
598 	stat->tx_frames += smb->tx_frames;
599 	stat->tx_bcast_frames += smb->tx_bcast_frames;
600 	stat->tx_mcast_frames += smb->tx_mcast_frames;
601 	stat->tx_pause_frames += smb->tx_pause_frames;
602 	stat->tx_excess_defer += smb->tx_excess_defer;
603 	stat->tx_control_frames += smb->tx_control_frames;
604 	stat->tx_deferred += smb->tx_deferred;
605 	stat->tx_bytes += smb->tx_bytes;
606 	stat->tx_pkts_64 += smb->tx_pkts_64;
607 	stat->tx_pkts_65_127 += smb->tx_pkts_65_127;
608 	stat->tx_pkts_128_255 += smb->tx_pkts_128_255;
609 	stat->tx_pkts_256_511 += smb->tx_pkts_256_511;
610 	stat->tx_pkts_512_1023 += smb->tx_pkts_512_1023;
611 	stat->tx_pkts_1024_1518 += smb->tx_pkts_1024_1518;
612 	stat->tx_pkts_1519_max += smb->tx_pkts_1519_max;
613 	stat->tx_single_colls += smb->tx_single_colls;
614 	stat->tx_multi_colls += smb->tx_multi_colls;
615 	stat->tx_late_colls += smb->tx_late_colls;
616 	stat->tx_excess_colls += smb->tx_excess_colls;
617 	stat->tx_underrun += smb->tx_underrun;
618 	stat->tx_desc_underrun += smb->tx_desc_underrun;
619 	stat->tx_lenerrs += smb->tx_lenerrs;
620 	stat->tx_pkts_truncated += smb->tx_pkts_truncated;
621 	stat->tx_bcast_bytes += smb->tx_bcast_bytes;
622 	stat->tx_mcast_bytes += smb->tx_mcast_bytes;
623 
624 	/*
625 	 * Update global counters in atge_t.
626 	 */
627 	atgep->atge_brdcstrcv += smb->rx_bcast_frames;
628 	atgep->atge_multircv += smb->rx_mcast_frames;
629 	atgep->atge_multixmt += smb->tx_mcast_frames;
630 	atgep->atge_brdcstxmt += smb->tx_bcast_frames;
631 
632 	atgep->atge_align_errors += smb->rx_alignerrs;
633 	atgep->atge_fcs_errors += smb->rx_crcerrs;
634 	atgep->atge_defer_xmts += smb->tx_deferred;
635 	atgep->atge_first_collisions += smb->tx_single_colls;
636 	atgep->atge_multi_collisions += smb->tx_multi_colls * 2;
637 	atgep->atge_tx_late_collisions += smb->tx_late_colls;
638 	atgep->atge_ex_collisions += smb->tx_excess_colls;
639 	atgep->atge_toolong_errors += smb->rx_lenerrs;
640 	atgep->atge_overflow += smb->rx_fifo_oflows;
641 	atgep->atge_underflow += (smb->tx_underrun + smb->tx_desc_underrun);
642 	atgep->atge_runt += smb->rx_runts;
643 
644 
645 	atgep->atge_collisions += smb->tx_single_colls +
646 	    smb->tx_multi_colls * 2 + smb->tx_late_colls;
647 
648 	/*
649 	 * tx_pkts_truncated counter looks suspicious. It constantly
650 	 * increments with no sign of Tx errors. Hence we don't factor it.
651 	 */
652 	atgep->atge_macxmt_errors += smb->tx_late_colls + smb->tx_underrun;
653 
654 	atgep->atge_macrcv_errors += smb->rx_crcerrs + smb->rx_lenerrs +
655 	    smb->rx_runts + smb->rx_pkts_truncated +
656 	    smb->rx_alignerrs;
657 
658 	smb->updated = 0;
659 	DMA_SYNC(dma, 0, 0, DDI_DMA_SYNC_FORDEV);
660 }
661 
662 void
663 atge_l1c_stop_tx_mac(atge_t *atgep)
664 {
665 	uint32_t reg;
666 	int t;
667 
668 	ATGE_DB(("%s: %s() called", atgep->atge_name, __func__));
669 
670 	reg = INL(atgep, ATGE_MAC_CFG);
671 	if ((reg & ATGE_CFG_TX_ENB) != 0) {
672 		reg &= ~ATGE_CFG_TX_ENB;
673 		OUTL(atgep, ATGE_MAC_CFG, reg);
674 	}
675 
676 	/* Stop TX DMA engine. */
677 	reg = INL(atgep, ATGE_DMA_CFG);
678 	if ((reg & DMA_CFG_RD_ENB) != 0) {
679 		reg &= ~DMA_CFG_RD_ENB;
680 		OUTL(atgep, ATGE_DMA_CFG, reg);
681 	}
682 
683 	for (t = ATGE_RESET_TIMEOUT; t > 0; t--) {
684 		if ((INL(atgep, ATGE_IDLE_STATUS) &
685 		    (IDLE_STATUS_TXMAC | IDLE_STATUS_DMARD)) == 0)
686 			break;
687 
688 		drv_usecwait(10);
689 	}
690 
691 	if (t == 0) {
692 		/* This should be an FMA event. */
693 		atge_error(atgep->atge_dip, "stopping TX DMA Engine timeout");
694 	}
695 }
696 
697 void
698 atge_l1c_stop_rx_mac(atge_t *atgep)
699 {
700 	uint32_t reg;
701 	int t;
702 
703 	ATGE_DB(("%s: %s() called", atgep->atge_name, __func__));
704 
705 	reg = INL(atgep, ATGE_MAC_CFG);
706 	if ((reg & ATGE_CFG_RX_ENB) != 0) {
707 		reg &= ~ATGE_CFG_RX_ENB;
708 		OUTL(atgep, ATGE_MAC_CFG, reg);
709 	}
710 
711 	/* Stop RX DMA engine. */
712 	reg = INL(atgep, ATGE_DMA_CFG);
713 	if ((reg & DMA_CFG_WR_ENB) != 0) {
714 		reg &= ~DMA_CFG_WR_ENB;
715 		OUTL(atgep, ATGE_DMA_CFG, reg);
716 	}
717 
718 	for (t = ATGE_RESET_TIMEOUT; t > 0; t--) {
719 		if ((INL(atgep, ATGE_IDLE_STATUS) &
720 		    (IDLE_STATUS_RXMAC | IDLE_STATUS_DMAWR)) == 0)
721 			break;
722 		drv_usecwait(10);
723 	}
724 
725 	if (t == 0) {
726 		/* This should be an FMA event. */
727 		atge_error(atgep->atge_dip, " stopping RX DMA Engine timeout");
728 	}
729 }
730 
731 /*
732  * Receives (consumes) packets.
733  */
734 static mblk_t *
735 atge_l1c_rx(atge_t *atgep)
736 {
737 	atge_l1c_data_t *l1c;
738 	mblk_t *mp = NULL, *rx_head = NULL, *rx_tail = NULL;
739 	l1c_rx_rdesc_t *rx_rr;
740 	uint32_t rdinfo, status, totlen, pktlen, slotlen;
741 	int nsegs, rx_cons = 0, cnt;
742 	atge_dma_t *buf;
743 	uchar_t *bufp;
744 	int sync = 0;
745 
746 	l1c = atgep->atge_private_data;
747 	ASSERT(l1c != NULL);
748 
749 	DMA_SYNC(l1c->atge_l1c_rr, 0, 0, DDI_DMA_SYNC_FORKERNEL);
750 	for (;;) {
751 		rx_rr = (l1c_rx_rdesc_t *)(l1c->atge_l1c_rr->addr +
752 		    (l1c->atge_l1c_rr_consumers * sizeof (l1c_rx_rdesc_t)));
753 
754 		rdinfo = ATGE_GET32(l1c->atge_l1c_rr, &rx_rr->rdinfo);
755 		status = ATGE_GET32(l1c->atge_l1c_rr, &rx_rr->status);
756 
757 		rx_cons = L1C_RRD_RD_IDX(rdinfo);
758 		nsegs = L1C_RRD_RD_CNT(rdinfo);
759 		totlen = L1C_RRD_BYTES(status);
760 
761 		ATGE_DB(("%s: %s() PKT -- rdinfo : 0x%x,"
762 		    "status : 0x%x, totlen : %d,"
763 		    " rx_cons : %d, nsegs : %d", atgep->atge_name, __func__,
764 		    rdinfo, status, totlen, rx_cons, nsegs));
765 
766 		if ((status & L1C_RRD_VALID) == 0) {
767 			break;
768 		}
769 
770 		if ((status & (L1C_RRD_ERR_CRC | L1C_RRD_ERR_ALIGN |
771 		    L1C_RRD_ERR_TRUNC | L1C_RRD_ERR_RUNT |
772 		    L1C_RRD_ERR_ICMP | L1C_RRD_ERR_LENGTH)) != 0) {
773 			atge_error(atgep->atge_dip, "errored pkt");
774 
775 			l1c->atge_rx_ring->r_consumer += nsegs;
776 			l1c->atge_rx_ring->r_consumer %= L1C_RX_RING_CNT;
777 			break;
778 		}
779 
780 		ASSERT(rx_cons >= 0 && rx_cons <= L1C_RX_RING_CNT);
781 
782 		mp = allocb(totlen + L1C_HEADROOM, BPRI_MED);
783 		if (mp != NULL) {
784 			mp->b_rptr += L1C_HEADROOM;
785 			bufp = mp->b_rptr;
786 			mp->b_wptr = bufp + totlen;
787 			mp->b_next = NULL;
788 
789 			atgep->atge_ipackets++;
790 			atgep->atge_rbytes += totlen;
791 
792 			/*
793 			 * If there are more than one segments, then the first
794 			 * segment should be of size MTU. We couldn't verify
795 			 * this as our driver does not support changing MTU
796 			 * or Jumbo Frames.
797 			 */
798 			if (nsegs > 1) {
799 				slotlen = atgep->atge_mtu;
800 			} else {
801 				slotlen = totlen;
802 			}
803 		} else {
804 			ATGE_DB(("%s: %s() PKT mp == NULL totlen : %d",
805 			    atgep->atge_name, __func__, totlen));
806 
807 			if (slotlen > atgep->atge_rx_buf_len) {
808 				atgep->atge_toolong_errors++;
809 			} else if (mp == NULL) {
810 				atgep->atge_norcvbuf++;
811 			}
812 
813 			rx_rr->status = 0;
814 			break;
815 		}
816 
817 		for (cnt = 0, pktlen = 0; cnt < nsegs; cnt++) {
818 			buf = l1c->atge_rx_ring->r_buf_tbl[rx_cons];
819 
820 			slotlen = min(atgep->atge_max_frame_size, totlen);
821 
822 			bcopy(buf->addr, (bufp + pktlen), slotlen);
823 			pktlen += slotlen;
824 			totlen -= slotlen;
825 
826 			ATGE_DB(("%s: %s() len : %d, rxcons : %d, pktlen : %d",
827 			    atgep->atge_name, __func__, slotlen, rx_cons,
828 			    pktlen));
829 
830 			ATGE_INC_SLOT(rx_cons, L1C_RX_RING_CNT);
831 		}
832 
833 		if (rx_tail == NULL) {
834 			rx_head = rx_tail = mp;
835 		} else {
836 			rx_tail->b_next = mp;
837 			rx_tail = mp;
838 		}
839 
840 		if (cnt != nsegs) {
841 			l1c->atge_rx_ring->r_consumer += nsegs;
842 			l1c->atge_rx_ring->r_consumer %= L1C_RX_RING_CNT;
843 		} else {
844 			l1c->atge_rx_ring->r_consumer = rx_cons;
845 		}
846 
847 		/*
848 		 * Tell the chip that this RR can be reused.
849 		 */
850 		rx_rr->status = 0;
851 
852 		ATGE_INC_SLOT(l1c->atge_l1c_rr_consumers, L1C_RR_RING_CNT);
853 		sync++;
854 	}
855 
856 	if (sync) {
857 		DMA_SYNC(l1c->atge_rx_ring->r_desc_ring, 0, 0,
858 		    DDI_DMA_SYNC_FORDEV);
859 
860 		DMA_SYNC(l1c->atge_l1c_rr, 0, 0, DDI_DMA_SYNC_FORDEV);
861 		/*
862 		 * Let controller know availability of new Rx buffers.
863 		 */
864 		OUTL(atgep, ATGE_MBOX_RD0_PROD_IDX,
865 		    l1c->atge_rx_ring->r_consumer);
866 
867 		ATGE_DB(("%s: %s() PKT Recved -> r_consumer : %d, rx_cons : %d"
868 		    " atge_l1c_rr_consumers : %d",
869 		    atgep->atge_name, __func__, l1c->atge_rx_ring->r_consumer,
870 		    rx_cons, l1c->atge_l1c_rr_consumers));
871 	}
872 
873 
874 	return (rx_head);
875 }
876 
877 /*
878  * The interrupt handler for L1C chip.
879  */
880 /*ARGSUSED*/
881 uint_t
882 atge_l1c_interrupt(caddr_t arg1, caddr_t arg2)
883 {
884 	atge_t *atgep = (void *)arg1;
885 	mblk_t *rx_head = NULL;
886 	uint32_t status;
887 	int resched = 0;
888 
889 	ASSERT(atgep != NULL);
890 
891 	mutex_enter(&atgep->atge_intr_lock);
892 
893 	if (atgep->atge_chip_state & ATGE_CHIP_SUSPENDED) {
894 		mutex_exit(&atgep->atge_intr_lock);
895 		return (DDI_INTR_UNCLAIMED);
896 	}
897 
898 	status = INL(atgep, ATGE_INTR_STATUS);
899 	if (status == 0 || (status & atgep->atge_intrs) == 0) {
900 		mutex_exit(&atgep->atge_intr_lock);
901 
902 		if (atgep->atge_flags & ATGE_FIXED_TYPE)
903 			return (DDI_INTR_UNCLAIMED);
904 
905 		return (DDI_INTR_CLAIMED);
906 	}
907 
908 	ATGE_DB(("%s: %s() entry status : %x",
909 	    atgep->atge_name, __func__, status));
910 
911 	/*
912 	 * Disable interrupts.
913 	 */
914 	if (status & L1C_INTR_GPHY) {
915 		/* clear PHY interrupt source before we ack interrupts */
916 		(void) atge_mii_read(atgep,
917 		    atgep->atge_phyaddr, ATGE_ISR_ACK_GPHY);
918 	}
919 
920 	OUTL(atgep, ATGE_INTR_STATUS, status | L1C_INTR_DIS_INT);
921 	FLUSH(atgep, ATGE_INTR_STATUS);
922 
923 	/*
924 	 * Check if chip is running, only then do the work.
925 	 */
926 	if (atgep->atge_chip_state & ATGE_CHIP_RUNNING) {
927 		atge_l1c_data_t *l1c;
928 
929 		l1c = atgep->atge_private_data;
930 
931 		ATGE_DB(("%s: %s() atge_l1c_intr_status : %x, "
932 		    "atge_l1c_rx_prod_cons : %d, atge_l1c_tx_prod_cons : %d"
933 		    " atge_l1c_rr_consumers : %d",
934 		    atgep->atge_name, __func__, l1c->atge_l1c_intr_status,
935 		    l1c->atge_l1c_rx_prod_cons, l1c->atge_l1c_tx_prod_cons,
936 		    l1c->atge_l1c_rr_consumers));
937 
938 		if (status & L1C_INTR_SMB)
939 			atge_l1c_gather_stats(atgep);
940 
941 		/*
942 		 * Check for errors.
943 		 */
944 		if (status & (L1C_INTR_DMA_RD_TO_RST |
945 		    L1C_INTR_DMA_WR_TO_RST | L1C_INTR_TXQ_TO_RST)) {
946 			/* This should be an FMA event. */
947 			atge_error(atgep->atge_dip,
948 			    "L1C chip detected a fatal error, "
949 			    "interrupt status: %x", status);
950 
951 			if (status & L1C_INTR_DMA_RD_TO_RST) {
952 				atge_error(atgep->atge_dip,
953 				    "DMA read error");
954 			}
955 			if (status & L1C_INTR_DMA_WR_TO_RST) {
956 				atge_error(atgep->atge_dip,
957 				    "DMA write error");
958 			}
959 			if (status & L1C_INTR_TXQ_TO_RST) {
960 				atge_error(atgep->atge_dip,
961 				    "Transmit queue error");
962 			}
963 
964 			/* This should be an FMA event. */
965 			atge_device_stop(atgep);
966 			/*
967 			 * Device has failed fatally.
968 			 * It will not be restarted by the driver.
969 			 */
970 			goto done;
971 
972 		}
973 
974 		rx_head = atge_l1c_rx(atgep);
975 		if (status & L1C_INTR_TX_PKT) {
976 			int cons;
977 
978 			mutex_enter(&atgep->atge_tx_lock);
979 			cons = INL(atgep, ATGE_MBOX_TD_CONS_IDX) >> 16;
980 			atge_tx_reclaim(atgep, cons);
981 			if (atgep->atge_tx_resched) {
982 				atgep->atge_tx_resched = 0;
983 				resched = 1;
984 			}
985 
986 			mutex_exit(&atgep->atge_tx_lock);
987 		}
988 	}
989 
990 	/* Re-enable interrupts. */
991 	OUTL(atgep, ATGE_INTR_STATUS, 0);
992 
993 done:
994 	mutex_exit(&atgep->atge_intr_lock);
995 
996 	if (status & L1C_INTR_GPHY) {
997 		/* link down */
998 		ATGE_DB(("%s: %s() MII_CHECK Performed",
999 		    atgep->atge_name, __func__));
1000 		mii_check(atgep->atge_mii);
1001 	}
1002 
1003 	/*
1004 	 * Pass the list of packets received from chip to MAC layer.
1005 	 */
1006 	if (rx_head) {
1007 		mac_rx(atgep->atge_mh, 0, rx_head);
1008 	}
1009 
1010 	/*
1011 	 * Let MAC start sending pkts if the downstream was asked to pause.
1012 	 */
1013 	if (resched)
1014 		mac_tx_update(atgep->atge_mh);
1015 
1016 	return (DDI_INTR_CLAIMED);
1017 }
1018 
1019 void
1020 atge_l1c_send_packet(atge_ring_t *r)
1021 {
1022 	atge_t *atgep;
1023 
1024 	atgep = r->r_atge;
1025 
1026 	mutex_enter(&atgep->atge_mbox_lock);
1027 	/* Sync descriptors. */
1028 	DMA_SYNC(atgep->atge_tx_ring->r_desc_ring, 0, 0, DDI_DMA_SYNC_FORDEV);
1029 	/* Kick. Assume we're using normal Tx priority queue. */
1030 	OUTL(atgep, ATGE_MBOX_TD_PROD_IDX,
1031 	    (atgep->atge_tx_ring->r_producer << MBOX_TD_PROD_LO_IDX_SHIFT) &
1032 	    MBOX_TD_PROD_LO_IDX_MASK);
1033 	mutex_exit(&atgep->atge_mbox_lock);
1034 }
1035