New upstream version 17.05.1
[deb_dpdk.git] / drivers / net / sfc / base / ef10_ev.c
1 /*
2  * Copyright (c) 2012-2016 Solarflare Communications Inc.
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions are met:
7  *
8  * 1. Redistributions of source code must retain the above copyright notice,
9  *    this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright notice,
11  *    this list of conditions and the following disclaimer in the documentation
12  *    and/or other materials provided with the distribution.
13  *
14  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
15  * AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO,
16  * THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR
17  * PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR
18  * CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL,
19  * EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO,
20  * PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS;
21  * OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY,
22  * WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR
23  * OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE,
24  * EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
25  *
26  * The views and conclusions contained in the software and documentation are
27  * those of the authors and should not be interpreted as representing official
28  * policies, either expressed or implied, of the FreeBSD Project.
29  */
30
31 #include "efx.h"
32 #include "efx_impl.h"
33 #if EFSYS_OPT_MON_STATS
34 #include "mcdi_mon.h"
35 #endif
36
37 #if EFSYS_OPT_HUNTINGTON || EFSYS_OPT_MEDFORD
38
39 #if EFSYS_OPT_QSTATS
40 #define EFX_EV_QSTAT_INCR(_eep, _stat)                                  \
41         do {                                                            \
42                 (_eep)->ee_stat[_stat]++;                               \
43         _NOTE(CONSTANTCONDITION)                                        \
44         } while (B_FALSE)
45 #else
46 #define EFX_EV_QSTAT_INCR(_eep, _stat)
47 #endif
48
49 /*
50  * Non-interrupting event queue requires interrrupting event queue to
51  * refer to for wake-up events even if wake ups are never used.
52  * It could be even non-allocated event queue.
53  */
54 #define EFX_EF10_ALWAYS_INTERRUPTING_EVQ_INDEX  (0)
55
56 static  __checkReturn   boolean_t
57 ef10_ev_rx(
58         __in            efx_evq_t *eep,
59         __in            efx_qword_t *eqp,
60         __in            const efx_ev_callbacks_t *eecp,
61         __in_opt        void *arg);
62
63 static  __checkReturn   boolean_t
64 ef10_ev_tx(
65         __in            efx_evq_t *eep,
66         __in            efx_qword_t *eqp,
67         __in            const efx_ev_callbacks_t *eecp,
68         __in_opt        void *arg);
69
70 static  __checkReturn   boolean_t
71 ef10_ev_driver(
72         __in            efx_evq_t *eep,
73         __in            efx_qword_t *eqp,
74         __in            const efx_ev_callbacks_t *eecp,
75         __in_opt        void *arg);
76
77 static  __checkReturn   boolean_t
78 ef10_ev_drv_gen(
79         __in            efx_evq_t *eep,
80         __in            efx_qword_t *eqp,
81         __in            const efx_ev_callbacks_t *eecp,
82         __in_opt        void *arg);
83
84 static  __checkReturn   boolean_t
85 ef10_ev_mcdi(
86         __in            efx_evq_t *eep,
87         __in            efx_qword_t *eqp,
88         __in            const efx_ev_callbacks_t *eecp,
89         __in_opt        void *arg);
90
91
92 static  __checkReturn   efx_rc_t
93 efx_mcdi_set_evq_tmr(
94         __in            efx_nic_t *enp,
95         __in            uint32_t instance,
96         __in            uint32_t mode,
97         __in            uint32_t timer_ns)
98 {
99         efx_mcdi_req_t req;
100         uint8_t payload[MAX(MC_CMD_SET_EVQ_TMR_IN_LEN,
101                             MC_CMD_SET_EVQ_TMR_OUT_LEN)];
102         efx_rc_t rc;
103
104         (void) memset(payload, 0, sizeof (payload));
105         req.emr_cmd = MC_CMD_SET_EVQ_TMR;
106         req.emr_in_buf = payload;
107         req.emr_in_length = MC_CMD_SET_EVQ_TMR_IN_LEN;
108         req.emr_out_buf = payload;
109         req.emr_out_length = MC_CMD_SET_EVQ_TMR_OUT_LEN;
110
111         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_INSTANCE, instance);
112         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_TMR_LOAD_REQ_NS, timer_ns);
113         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_TMR_RELOAD_REQ_NS, timer_ns);
114         MCDI_IN_SET_DWORD(req, SET_EVQ_TMR_IN_TMR_MODE, mode);
115
116         efx_mcdi_execute(enp, &req);
117
118         if (req.emr_rc != 0) {
119                 rc = req.emr_rc;
120                 goto fail1;
121         }
122
123         if (req.emr_out_length_used < MC_CMD_SET_EVQ_TMR_OUT_LEN) {
124                 rc = EMSGSIZE;
125                 goto fail2;
126         }
127
128         return (0);
129
130 fail2:
131         EFSYS_PROBE(fail2);
132 fail1:
133         EFSYS_PROBE1(fail1, efx_rc_t, rc);
134
135         return (rc);
136 }
137
138 static  __checkReturn   efx_rc_t
139 efx_mcdi_init_evq(
140         __in            efx_nic_t *enp,
141         __in            unsigned int instance,
142         __in            efsys_mem_t *esmp,
143         __in            size_t nevs,
144         __in            uint32_t irq,
145         __in            uint32_t us,
146         __in            uint32_t flags,
147         __in            boolean_t low_latency)
148 {
149         efx_mcdi_req_t req;
150         uint8_t payload[
151             MAX(MC_CMD_INIT_EVQ_IN_LEN(EFX_EVQ_NBUFS(EFX_EVQ_MAXNEVS)),
152                 MC_CMD_INIT_EVQ_OUT_LEN)];
153         efx_qword_t *dma_addr;
154         uint64_t addr;
155         int npages;
156         int i;
157         boolean_t interrupting;
158         int ev_cut_through;
159         efx_rc_t rc;
160
161         npages = EFX_EVQ_NBUFS(nevs);
162         if (MC_CMD_INIT_EVQ_IN_LEN(npages) > MC_CMD_INIT_EVQ_IN_LENMAX) {
163                 rc = EINVAL;
164                 goto fail1;
165         }
166
167         (void) memset(payload, 0, sizeof (payload));
168         req.emr_cmd = MC_CMD_INIT_EVQ;
169         req.emr_in_buf = payload;
170         req.emr_in_length = MC_CMD_INIT_EVQ_IN_LEN(npages);
171         req.emr_out_buf = payload;
172         req.emr_out_length = MC_CMD_INIT_EVQ_OUT_LEN;
173
174         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_SIZE, nevs);
175         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_INSTANCE, instance);
176         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_IRQ_NUM, irq);
177
178         interrupting = ((flags & EFX_EVQ_FLAGS_NOTIFY_MASK) ==
179             EFX_EVQ_FLAGS_NOTIFY_INTERRUPT);
180
181         /*
182          * On Huntington RX and TX event batching can only be requested together
183          * (even if the datapath firmware doesn't actually support RX
184          * batching). If event cut through is enabled no RX batching will occur.
185          *
186          * So always enable RX and TX event batching, and enable event cut
187          * through if we want low latency operation.
188          */
189         switch (flags & EFX_EVQ_FLAGS_TYPE_MASK) {
190         case EFX_EVQ_FLAGS_TYPE_AUTO:
191                 ev_cut_through = low_latency ? 1 : 0;
192                 break;
193         case EFX_EVQ_FLAGS_TYPE_THROUGHPUT:
194                 ev_cut_through = 0;
195                 break;
196         case EFX_EVQ_FLAGS_TYPE_LOW_LATENCY:
197                 ev_cut_through = 1;
198                 break;
199         default:
200                 rc = EINVAL;
201                 goto fail2;
202         }
203         MCDI_IN_POPULATE_DWORD_6(req, INIT_EVQ_IN_FLAGS,
204             INIT_EVQ_IN_FLAG_INTERRUPTING, interrupting,
205             INIT_EVQ_IN_FLAG_RPTR_DOS, 0,
206             INIT_EVQ_IN_FLAG_INT_ARMD, 0,
207             INIT_EVQ_IN_FLAG_CUT_THRU, ev_cut_through,
208             INIT_EVQ_IN_FLAG_RX_MERGE, 1,
209             INIT_EVQ_IN_FLAG_TX_MERGE, 1);
210
211         /* If the value is zero then disable the timer */
212         if (us == 0) {
213                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_MODE,
214                     MC_CMD_INIT_EVQ_IN_TMR_MODE_DIS);
215                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_LOAD, 0);
216                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_RELOAD, 0);
217         } else {
218                 unsigned int ticks;
219
220                 if ((rc = efx_ev_usecs_to_ticks(enp, us, &ticks)) != 0)
221                         goto fail3;
222
223                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_MODE,
224                     MC_CMD_INIT_EVQ_IN_TMR_INT_HLDOFF);
225                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_LOAD, ticks);
226                 MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_TMR_RELOAD, ticks);
227         }
228
229         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_COUNT_MODE,
230             MC_CMD_INIT_EVQ_IN_COUNT_MODE_DIS);
231         MCDI_IN_SET_DWORD(req, INIT_EVQ_IN_COUNT_THRSHLD, 0);
232
233         dma_addr = MCDI_IN2(req, efx_qword_t, INIT_EVQ_IN_DMA_ADDR);
234         addr = EFSYS_MEM_ADDR(esmp);
235
236         for (i = 0; i < npages; i++) {
237                 EFX_POPULATE_QWORD_2(*dma_addr,
238                     EFX_DWORD_1, (uint32_t)(addr >> 32),
239                     EFX_DWORD_0, (uint32_t)(addr & 0xffffffff));
240
241                 dma_addr++;
242                 addr += EFX_BUF_SIZE;
243         }
244
245         efx_mcdi_execute(enp, &req);
246
247         if (req.emr_rc != 0) {
248                 rc = req.emr_rc;
249                 goto fail4;
250         }
251
252         if (req.emr_out_length_used < MC_CMD_INIT_EVQ_OUT_LEN) {
253                 rc = EMSGSIZE;
254                 goto fail5;
255         }
256
257         /* NOTE: ignore the returned IRQ param as firmware does not set it. */
258
259         return (0);
260
261 fail5:
262         EFSYS_PROBE(fail5);
263 fail4:
264         EFSYS_PROBE(fail4);
265 fail3:
266         EFSYS_PROBE(fail3);
267 fail2:
268         EFSYS_PROBE(fail2);
269 fail1:
270         EFSYS_PROBE1(fail1, efx_rc_t, rc);
271
272         return (rc);
273 }
274
275
276 static  __checkReturn   efx_rc_t
277 efx_mcdi_init_evq_v2(
278         __in            efx_nic_t *enp,
279         __in            unsigned int instance,
280         __in            efsys_mem_t *esmp,
281         __in            size_t nevs,
282         __in            uint32_t irq,
283         __in            uint32_t us,
284         __in            uint32_t flags)
285 {
286         efx_mcdi_req_t req;
287         uint8_t payload[
288                 MAX(MC_CMD_INIT_EVQ_V2_IN_LEN(EFX_EVQ_NBUFS(EFX_EVQ_MAXNEVS)),
289                     MC_CMD_INIT_EVQ_V2_OUT_LEN)];
290         boolean_t interrupting;
291         unsigned int evq_type;
292         efx_qword_t *dma_addr;
293         uint64_t addr;
294         int npages;
295         int i;
296         efx_rc_t rc;
297
298         npages = EFX_EVQ_NBUFS(nevs);
299         if (MC_CMD_INIT_EVQ_V2_IN_LEN(npages) > MC_CMD_INIT_EVQ_V2_IN_LENMAX) {
300                 rc = EINVAL;
301                 goto fail1;
302         }
303
304         (void) memset(payload, 0, sizeof (payload));
305         req.emr_cmd = MC_CMD_INIT_EVQ;
306         req.emr_in_buf = payload;
307         req.emr_in_length = MC_CMD_INIT_EVQ_V2_IN_LEN(npages);
308         req.emr_out_buf = payload;
309         req.emr_out_length = MC_CMD_INIT_EVQ_V2_OUT_LEN;
310
311         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_SIZE, nevs);
312         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_INSTANCE, instance);
313         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_IRQ_NUM, irq);
314
315         interrupting = ((flags & EFX_EVQ_FLAGS_NOTIFY_MASK) ==
316             EFX_EVQ_FLAGS_NOTIFY_INTERRUPT);
317
318         switch (flags & EFX_EVQ_FLAGS_TYPE_MASK) {
319         case EFX_EVQ_FLAGS_TYPE_AUTO:
320                 evq_type = MC_CMD_INIT_EVQ_V2_IN_FLAG_TYPE_AUTO;
321                 break;
322         case EFX_EVQ_FLAGS_TYPE_THROUGHPUT:
323                 evq_type = MC_CMD_INIT_EVQ_V2_IN_FLAG_TYPE_THROUGHPUT;
324                 break;
325         case EFX_EVQ_FLAGS_TYPE_LOW_LATENCY:
326                 evq_type = MC_CMD_INIT_EVQ_V2_IN_FLAG_TYPE_LOW_LATENCY;
327                 break;
328         default:
329                 rc = EINVAL;
330                 goto fail2;
331         }
332         MCDI_IN_POPULATE_DWORD_4(req, INIT_EVQ_V2_IN_FLAGS,
333             INIT_EVQ_V2_IN_FLAG_INTERRUPTING, interrupting,
334             INIT_EVQ_V2_IN_FLAG_RPTR_DOS, 0,
335             INIT_EVQ_V2_IN_FLAG_INT_ARMD, 0,
336             INIT_EVQ_V2_IN_FLAG_TYPE, evq_type);
337
338         /* If the value is zero then disable the timer */
339         if (us == 0) {
340                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_MODE,
341                     MC_CMD_INIT_EVQ_V2_IN_TMR_MODE_DIS);
342                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_LOAD, 0);
343                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_RELOAD, 0);
344         } else {
345                 unsigned int ticks;
346
347                 if ((rc = efx_ev_usecs_to_ticks(enp, us, &ticks)) != 0)
348                         goto fail3;
349
350                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_MODE,
351                     MC_CMD_INIT_EVQ_V2_IN_TMR_INT_HLDOFF);
352                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_LOAD, ticks);
353                 MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_TMR_RELOAD, ticks);
354         }
355
356         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_COUNT_MODE,
357             MC_CMD_INIT_EVQ_V2_IN_COUNT_MODE_DIS);
358         MCDI_IN_SET_DWORD(req, INIT_EVQ_V2_IN_COUNT_THRSHLD, 0);
359
360         dma_addr = MCDI_IN2(req, efx_qword_t, INIT_EVQ_V2_IN_DMA_ADDR);
361         addr = EFSYS_MEM_ADDR(esmp);
362
363         for (i = 0; i < npages; i++) {
364                 EFX_POPULATE_QWORD_2(*dma_addr,
365                     EFX_DWORD_1, (uint32_t)(addr >> 32),
366                     EFX_DWORD_0, (uint32_t)(addr & 0xffffffff));
367
368                 dma_addr++;
369                 addr += EFX_BUF_SIZE;
370         }
371
372         efx_mcdi_execute(enp, &req);
373
374         if (req.emr_rc != 0) {
375                 rc = req.emr_rc;
376                 goto fail4;
377         }
378
379         if (req.emr_out_length_used < MC_CMD_INIT_EVQ_V2_OUT_LEN) {
380                 rc = EMSGSIZE;
381                 goto fail5;
382         }
383
384         /* NOTE: ignore the returned IRQ param as firmware does not set it. */
385
386         EFSYS_PROBE1(mcdi_evq_flags, uint32_t,
387                     MCDI_OUT_DWORD(req, INIT_EVQ_V2_OUT_FLAGS));
388
389         return (0);
390
391 fail5:
392         EFSYS_PROBE(fail5);
393 fail4:
394         EFSYS_PROBE(fail4);
395 fail3:
396         EFSYS_PROBE(fail3);
397 fail2:
398         EFSYS_PROBE(fail2);
399 fail1:
400         EFSYS_PROBE1(fail1, efx_rc_t, rc);
401
402         return (rc);
403 }
404
405 static  __checkReturn   efx_rc_t
406 efx_mcdi_fini_evq(
407         __in            efx_nic_t *enp,
408         __in            uint32_t instance)
409 {
410         efx_mcdi_req_t req;
411         uint8_t payload[MAX(MC_CMD_FINI_EVQ_IN_LEN,
412                             MC_CMD_FINI_EVQ_OUT_LEN)];
413         efx_rc_t rc;
414
415         (void) memset(payload, 0, sizeof (payload));
416         req.emr_cmd = MC_CMD_FINI_EVQ;
417         req.emr_in_buf = payload;
418         req.emr_in_length = MC_CMD_FINI_EVQ_IN_LEN;
419         req.emr_out_buf = payload;
420         req.emr_out_length = MC_CMD_FINI_EVQ_OUT_LEN;
421
422         MCDI_IN_SET_DWORD(req, FINI_EVQ_IN_INSTANCE, instance);
423
424         efx_mcdi_execute_quiet(enp, &req);
425
426         if (req.emr_rc != 0) {
427                 rc = req.emr_rc;
428                 goto fail1;
429         }
430
431         return (0);
432
433 fail1:
434         /*
435          * EALREADY is not an error, but indicates that the MC has rebooted and
436          * that the EVQ has already been destroyed.
437          */
438         if (rc != EALREADY)
439                 EFSYS_PROBE1(fail1, efx_rc_t, rc);
440
441         return (rc);
442 }
443
444
445
446         __checkReturn   efx_rc_t
447 ef10_ev_init(
448         __in            efx_nic_t *enp)
449 {
450         _NOTE(ARGUNUSED(enp))
451         return (0);
452 }
453
454                         void
455 ef10_ev_fini(
456         __in            efx_nic_t *enp)
457 {
458         _NOTE(ARGUNUSED(enp))
459 }
460
461         __checkReturn   efx_rc_t
462 ef10_ev_qcreate(
463         __in            efx_nic_t *enp,
464         __in            unsigned int index,
465         __in            efsys_mem_t *esmp,
466         __in            size_t n,
467         __in            uint32_t id,
468         __in            uint32_t us,
469         __in            uint32_t flags,
470         __in            efx_evq_t *eep)
471 {
472         efx_nic_cfg_t *encp = &(enp->en_nic_cfg);
473         uint32_t irq;
474         efx_rc_t rc;
475
476         _NOTE(ARGUNUSED(id))    /* buftbl id managed by MC */
477         EFX_STATIC_ASSERT(ISP2(EFX_EVQ_MAXNEVS));
478         EFX_STATIC_ASSERT(ISP2(EFX_EVQ_MINNEVS));
479
480         if (!ISP2(n) || (n < EFX_EVQ_MINNEVS) || (n > EFX_EVQ_MAXNEVS)) {
481                 rc = EINVAL;
482                 goto fail1;
483         }
484
485         if (index >= encp->enc_evq_limit) {
486                 rc = EINVAL;
487                 goto fail2;
488         }
489
490         if (us > encp->enc_evq_timer_max_us) {
491                 rc = EINVAL;
492                 goto fail3;
493         }
494
495         /* Set up the handler table */
496         eep->ee_rx      = ef10_ev_rx;
497         eep->ee_tx      = ef10_ev_tx;
498         eep->ee_driver  = ef10_ev_driver;
499         eep->ee_drv_gen = ef10_ev_drv_gen;
500         eep->ee_mcdi    = ef10_ev_mcdi;
501
502         /* Set up the event queue */
503         /* INIT_EVQ expects function-relative vector number */
504         if ((flags & EFX_EVQ_FLAGS_NOTIFY_MASK) ==
505             EFX_EVQ_FLAGS_NOTIFY_INTERRUPT) {
506                 irq = index;
507         } else if (index == EFX_EF10_ALWAYS_INTERRUPTING_EVQ_INDEX) {
508                 irq = index;
509                 flags = (flags & ~EFX_EVQ_FLAGS_NOTIFY_MASK) |
510                     EFX_EVQ_FLAGS_NOTIFY_INTERRUPT;
511         } else {
512                 irq = EFX_EF10_ALWAYS_INTERRUPTING_EVQ_INDEX;
513         }
514
515         /*
516          * Interrupts may be raised for events immediately after the queue is
517          * created. See bug58606.
518          */
519
520         if (encp->enc_init_evq_v2_supported) {
521                 /*
522                  * On Medford the low latency license is required to enable RX
523                  * and event cut through and to disable RX batching.  If event
524                  * queue type in flags is auto, we let the firmware decide the
525                  * settings to use. If the adapter has a low latency license,
526                  * it will choose the best settings for low latency, otherwise
527                  * it will choose the best settings for throughput.
528                  */
529                 rc = efx_mcdi_init_evq_v2(enp, index, esmp, n, irq, us, flags);
530                 if (rc != 0)
531                         goto fail4;
532         } else {
533                 /*
534                  * On Huntington we need to specify the settings to use.
535                  * If event queue type in flags is auto, we favour throughput
536                  * if the adapter is running virtualization supporting firmware
537                  * (i.e. the full featured firmware variant)
538                  * and latency otherwise. The Ethernet Virtual Bridging
539                  * capability is used to make this decision. (Note though that
540                  * the low latency firmware variant is also best for
541                  * throughput and corresponding type should be specified
542                  * to choose it.)
543                  */
544                 boolean_t low_latency = encp->enc_datapath_cap_evb ? 0 : 1;
545                 rc = efx_mcdi_init_evq(enp, index, esmp, n, irq, us, flags,
546                     low_latency);
547                 if (rc != 0)
548                         goto fail5;
549         }
550
551         return (0);
552
553 fail5:
554         EFSYS_PROBE(fail5);
555 fail4:
556         EFSYS_PROBE(fail4);
557 fail3:
558         EFSYS_PROBE(fail3);
559 fail2:
560         EFSYS_PROBE(fail2);
561 fail1:
562         EFSYS_PROBE1(fail1, efx_rc_t, rc);
563
564         return (rc);
565 }
566
567                         void
568 ef10_ev_qdestroy(
569         __in            efx_evq_t *eep)
570 {
571         efx_nic_t *enp = eep->ee_enp;
572
573         EFSYS_ASSERT(enp->en_family == EFX_FAMILY_HUNTINGTON ||
574             enp->en_family == EFX_FAMILY_MEDFORD);
575
576         (void) efx_mcdi_fini_evq(eep->ee_enp, eep->ee_index);
577 }
578
579         __checkReturn   efx_rc_t
580 ef10_ev_qprime(
581         __in            efx_evq_t *eep,
582         __in            unsigned int count)
583 {
584         efx_nic_t *enp = eep->ee_enp;
585         uint32_t rptr;
586         efx_dword_t dword;
587
588         rptr = count & eep->ee_mask;
589
590         if (enp->en_nic_cfg.enc_bug35388_workaround) {
591                 EFX_STATIC_ASSERT(EFX_EVQ_MINNEVS >
592                     (1 << ERF_DD_EVQ_IND_RPTR_WIDTH));
593                 EFX_STATIC_ASSERT(EFX_EVQ_MAXNEVS <
594                     (1 << 2 * ERF_DD_EVQ_IND_RPTR_WIDTH));
595
596                 EFX_POPULATE_DWORD_2(dword,
597                     ERF_DD_EVQ_IND_RPTR_FLAGS,
598                     EFE_DD_EVQ_IND_RPTR_FLAGS_HIGH,
599                     ERF_DD_EVQ_IND_RPTR,
600                     (rptr >> ERF_DD_EVQ_IND_RPTR_WIDTH));
601                 EFX_BAR_TBL_WRITED(enp, ER_DD_EVQ_INDIRECT, eep->ee_index,
602                     &dword, B_FALSE);
603
604                 EFX_POPULATE_DWORD_2(dword,
605                     ERF_DD_EVQ_IND_RPTR_FLAGS,
606                     EFE_DD_EVQ_IND_RPTR_FLAGS_LOW,
607                     ERF_DD_EVQ_IND_RPTR,
608                     rptr & ((1 << ERF_DD_EVQ_IND_RPTR_WIDTH) - 1));
609                 EFX_BAR_TBL_WRITED(enp, ER_DD_EVQ_INDIRECT, eep->ee_index,
610                     &dword, B_FALSE);
611         } else {
612                 EFX_POPULATE_DWORD_1(dword, ERF_DZ_EVQ_RPTR, rptr);
613                 EFX_BAR_TBL_WRITED(enp, ER_DZ_EVQ_RPTR_REG, eep->ee_index,
614                     &dword, B_FALSE);
615         }
616
617         return (0);
618 }
619
620 static  __checkReturn   efx_rc_t
621 efx_mcdi_driver_event(
622         __in            efx_nic_t *enp,
623         __in            uint32_t evq,
624         __in            efx_qword_t data)
625 {
626         efx_mcdi_req_t req;
627         uint8_t payload[MAX(MC_CMD_DRIVER_EVENT_IN_LEN,
628                             MC_CMD_DRIVER_EVENT_OUT_LEN)];
629         efx_rc_t rc;
630
631         req.emr_cmd = MC_CMD_DRIVER_EVENT;
632         req.emr_in_buf = payload;
633         req.emr_in_length = MC_CMD_DRIVER_EVENT_IN_LEN;
634         req.emr_out_buf = payload;
635         req.emr_out_length = MC_CMD_DRIVER_EVENT_OUT_LEN;
636
637         MCDI_IN_SET_DWORD(req, DRIVER_EVENT_IN_EVQ, evq);
638
639         MCDI_IN_SET_DWORD(req, DRIVER_EVENT_IN_DATA_LO,
640             EFX_QWORD_FIELD(data, EFX_DWORD_0));
641         MCDI_IN_SET_DWORD(req, DRIVER_EVENT_IN_DATA_HI,
642             EFX_QWORD_FIELD(data, EFX_DWORD_1));
643
644         efx_mcdi_execute(enp, &req);
645
646         if (req.emr_rc != 0) {
647                 rc = req.emr_rc;
648                 goto fail1;
649         }
650
651         return (0);
652
653 fail1:
654         EFSYS_PROBE1(fail1, efx_rc_t, rc);
655
656         return (rc);
657 }
658
659                         void
660 ef10_ev_qpost(
661         __in    efx_evq_t *eep,
662         __in    uint16_t data)
663 {
664         efx_nic_t *enp = eep->ee_enp;
665         efx_qword_t event;
666
667         EFX_POPULATE_QWORD_3(event,
668             ESF_DZ_DRV_CODE, ESE_DZ_EV_CODE_DRV_GEN_EV,
669             ESF_DZ_DRV_SUB_CODE, 0,
670             ESF_DZ_DRV_SUB_DATA_DW0, (uint32_t)data);
671
672         (void) efx_mcdi_driver_event(enp, eep->ee_index, event);
673 }
674
675         __checkReturn   efx_rc_t
676 ef10_ev_qmoderate(
677         __in            efx_evq_t *eep,
678         __in            unsigned int us)
679 {
680         efx_nic_t *enp = eep->ee_enp;
681         efx_nic_cfg_t *encp = &(enp->en_nic_cfg);
682         efx_dword_t dword;
683         uint32_t mode;
684         efx_rc_t rc;
685
686         /* Check that hardware and MCDI use the same timer MODE values */
687         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_DIS ==
688             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_DIS);
689         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_IMMED_START ==
690             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_IMMED_START);
691         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_TRIG_START ==
692             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_TRIG_START);
693         EFX_STATIC_ASSERT(FFE_CZ_TIMER_MODE_INT_HLDOFF ==
694             MC_CMD_SET_EVQ_TMR_IN_TIMER_MODE_INT_HLDOFF);
695
696         if (us > encp->enc_evq_timer_max_us) {
697                 rc = EINVAL;
698                 goto fail1;
699         }
700
701         /* If the value is zero then disable the timer */
702         if (us == 0) {
703                 mode = FFE_CZ_TIMER_MODE_DIS;
704         } else {
705                 mode = FFE_CZ_TIMER_MODE_INT_HLDOFF;
706         }
707
708         if (encp->enc_bug61265_workaround) {
709                 uint32_t ns = us * 1000;
710
711                 rc = efx_mcdi_set_evq_tmr(enp, eep->ee_index, mode, ns);
712                 if (rc != 0)
713                         goto fail2;
714         } else {
715                 unsigned int ticks;
716
717                 if ((rc = efx_ev_usecs_to_ticks(enp, us, &ticks)) != 0)
718                         goto fail3;
719
720                 if (encp->enc_bug35388_workaround) {
721                         EFX_POPULATE_DWORD_3(dword,
722                             ERF_DD_EVQ_IND_TIMER_FLAGS,
723                             EFE_DD_EVQ_IND_TIMER_FLAGS,
724                             ERF_DD_EVQ_IND_TIMER_MODE, mode,
725                             ERF_DD_EVQ_IND_TIMER_VAL, ticks);
726                         EFX_BAR_TBL_WRITED(enp, ER_DD_EVQ_INDIRECT,
727                             eep->ee_index, &dword, 0);
728                 } else {
729                         EFX_POPULATE_DWORD_2(dword,
730                             ERF_DZ_TC_TIMER_MODE, mode,
731                             ERF_DZ_TC_TIMER_VAL, ticks);
732                         EFX_BAR_TBL_WRITED(enp, ER_DZ_EVQ_TMR_REG,
733                             eep->ee_index, &dword, 0);
734                 }
735         }
736
737         return (0);
738
739 fail3:
740         EFSYS_PROBE(fail3);
741 fail2:
742         EFSYS_PROBE(fail2);
743 fail1:
744         EFSYS_PROBE1(fail1, efx_rc_t, rc);
745
746         return (rc);
747 }
748
749
750 #if EFSYS_OPT_QSTATS
751                         void
752 ef10_ev_qstats_update(
753         __in                            efx_evq_t *eep,
754         __inout_ecount(EV_NQSTATS)      efsys_stat_t *stat)
755 {
756         unsigned int id;
757
758         for (id = 0; id < EV_NQSTATS; id++) {
759                 efsys_stat_t *essp = &stat[id];
760
761                 EFSYS_STAT_INCR(essp, eep->ee_stat[id]);
762                 eep->ee_stat[id] = 0;
763         }
764 }
765 #endif /* EFSYS_OPT_QSTATS */
766
767 #if EFSYS_OPT_RX_PACKED_STREAM
768
769 static  __checkReturn   boolean_t
770 ef10_ev_rx_packed_stream(
771         __in            efx_evq_t *eep,
772         __in            efx_qword_t *eqp,
773         __in            const efx_ev_callbacks_t *eecp,
774         __in_opt        void *arg)
775 {
776         uint32_t label;
777         uint32_t next_read_lbits;
778         uint16_t flags;
779         boolean_t should_abort;
780         efx_evq_rxq_state_t *eersp;
781         unsigned int pkt_count;
782         unsigned int current_id;
783         boolean_t new_buffer;
784
785         next_read_lbits = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_DSC_PTR_LBITS);
786         label = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_QLABEL);
787         new_buffer = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_EV_ROTATE);
788
789         flags = 0;
790
791         eersp = &eep->ee_rxq_state[label];
792         pkt_count = (EFX_MASK32(ESF_DZ_RX_DSC_PTR_LBITS) + 1 +
793             next_read_lbits - eersp->eers_rx_stream_npackets) &
794             EFX_MASK32(ESF_DZ_RX_DSC_PTR_LBITS);
795         eersp->eers_rx_stream_npackets += pkt_count;
796
797         if (new_buffer) {
798                 flags |= EFX_PKT_PACKED_STREAM_NEW_BUFFER;
799                 if (eersp->eers_rx_packed_stream_credits <
800                     EFX_RX_PACKED_STREAM_MAX_CREDITS)
801                         eersp->eers_rx_packed_stream_credits++;
802                 eersp->eers_rx_read_ptr++;
803         }
804         current_id = eersp->eers_rx_read_ptr & eersp->eers_rx_mask;
805
806         /* Check for errors that invalidate checksum and L3/L4 fields */
807         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECC_ERR) != 0) {
808                 /* RX frame truncated (error flag is misnamed) */
809                 EFX_EV_QSTAT_INCR(eep, EV_RX_FRM_TRUNC);
810                 flags |= EFX_DISCARD;
811                 goto deliver;
812         }
813         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECRC_ERR) != 0) {
814                 /* Bad Ethernet frame CRC */
815                 EFX_EV_QSTAT_INCR(eep, EV_RX_ETH_CRC_ERR);
816                 flags |= EFX_DISCARD;
817                 goto deliver;
818         }
819
820         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_PARSE_INCOMPLETE)) {
821                 flags |= EFX_PKT_PACKED_STREAM_PARSE_INCOMPLETE;
822                 goto deliver;
823         }
824
825         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_IPCKSUM_ERR))
826                 EFX_EV_QSTAT_INCR(eep, EV_RX_IPV4_HDR_CHKSUM_ERR);
827
828         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_TCPUDP_CKSUM_ERR))
829                 EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_UDP_CHKSUM_ERR);
830
831 deliver:
832         /* If we're not discarding the packet then it is ok */
833         if (~flags & EFX_DISCARD)
834                 EFX_EV_QSTAT_INCR(eep, EV_RX_OK);
835
836         EFSYS_ASSERT(eecp->eec_rx_ps != NULL);
837         should_abort = eecp->eec_rx_ps(arg, label, current_id, pkt_count,
838             flags);
839
840         return (should_abort);
841 }
842
843 #endif /* EFSYS_OPT_RX_PACKED_STREAM */
844
845 static  __checkReturn   boolean_t
846 ef10_ev_rx(
847         __in            efx_evq_t *eep,
848         __in            efx_qword_t *eqp,
849         __in            const efx_ev_callbacks_t *eecp,
850         __in_opt        void *arg)
851 {
852         efx_nic_t *enp = eep->ee_enp;
853         uint32_t size;
854         uint32_t label;
855         uint32_t mac_class;
856         uint32_t eth_tag_class;
857         uint32_t l3_class;
858         uint32_t l4_class;
859         uint32_t next_read_lbits;
860         uint16_t flags;
861         boolean_t cont;
862         boolean_t should_abort;
863         efx_evq_rxq_state_t *eersp;
864         unsigned int desc_count;
865         unsigned int last_used_id;
866
867         EFX_EV_QSTAT_INCR(eep, EV_RX);
868
869         /* Discard events after RXQ/TXQ errors */
870         if (enp->en_reset_flags & (EFX_RESET_RXQ_ERR | EFX_RESET_TXQ_ERR))
871                 return (B_FALSE);
872
873         /* Basic packet information */
874         label = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_QLABEL);
875         eersp = &eep->ee_rxq_state[label];
876
877 #if EFSYS_OPT_RX_PACKED_STREAM
878         /*
879          * Packed stream events are very different,
880          * so handle them separately
881          */
882         if (eersp->eers_rx_packed_stream)
883                 return (ef10_ev_rx_packed_stream(eep, eqp, eecp, arg));
884 #endif
885
886         size = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_BYTES);
887         next_read_lbits = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_DSC_PTR_LBITS);
888         eth_tag_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ETH_TAG_CLASS);
889         mac_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_MAC_CLASS);
890         l3_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_L3_CLASS);
891         l4_class = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_L4_CLASS);
892         cont = EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_CONT);
893
894         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_DROP_EVENT) != 0) {
895                 /* Drop this event */
896                 return (B_FALSE);
897         }
898         flags = 0;
899
900         if (cont != 0) {
901                 /*
902                  * This may be part of a scattered frame, or it may be a
903                  * truncated frame if scatter is disabled on this RXQ.
904                  * Overlength frames can be received if e.g. a VF is configured
905                  * for 1500 MTU but connected to a port set to 9000 MTU
906                  * (see bug56567).
907                  * FIXME: There is not yet any driver that supports scatter on
908                  * Huntington.  Scatter support is required for OSX.
909                  */
910                 flags |= EFX_PKT_CONT;
911         }
912
913         if (mac_class == ESE_DZ_MAC_CLASS_UCAST)
914                 flags |= EFX_PKT_UNICAST;
915
916         /* Increment the count of descriptors read */
917         desc_count = (next_read_lbits - eersp->eers_rx_read_ptr) &
918             EFX_MASK32(ESF_DZ_RX_DSC_PTR_LBITS);
919         eersp->eers_rx_read_ptr += desc_count;
920
921         /*
922          * FIXME: add error checking to make sure this a batched event.
923          * This could also be an aborted scatter, see Bug36629.
924          */
925         if (desc_count > 1) {
926                 EFX_EV_QSTAT_INCR(eep, EV_RX_BATCH);
927                 flags |= EFX_PKT_PREFIX_LEN;
928         }
929
930         /* Calculate the index of the last descriptor consumed */
931         last_used_id = (eersp->eers_rx_read_ptr - 1) & eersp->eers_rx_mask;
932
933         /* Check for errors that invalidate checksum and L3/L4 fields */
934         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECC_ERR) != 0) {
935                 /* RX frame truncated (error flag is misnamed) */
936                 EFX_EV_QSTAT_INCR(eep, EV_RX_FRM_TRUNC);
937                 flags |= EFX_DISCARD;
938                 goto deliver;
939         }
940         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_ECRC_ERR) != 0) {
941                 /* Bad Ethernet frame CRC */
942                 EFX_EV_QSTAT_INCR(eep, EV_RX_ETH_CRC_ERR);
943                 flags |= EFX_DISCARD;
944                 goto deliver;
945         }
946         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_PARSE_INCOMPLETE)) {
947                 /*
948                  * Hardware parse failed, due to malformed headers
949                  * or headers that are too long for the parser.
950                  * Headers and checksums must be validated by the host.
951                  */
952                 /* TODO: EFX_EV_QSTAT_INCR(eep, EV_RX_PARSE_INCOMPLETE); */
953                 goto deliver;
954         }
955
956         if ((eth_tag_class == ESE_DZ_ETH_TAG_CLASS_VLAN1) ||
957             (eth_tag_class == ESE_DZ_ETH_TAG_CLASS_VLAN2)) {
958                 flags |= EFX_PKT_VLAN_TAGGED;
959         }
960
961         switch (l3_class) {
962         case ESE_DZ_L3_CLASS_IP4:
963         case ESE_DZ_L3_CLASS_IP4_FRAG:
964                 flags |= EFX_PKT_IPV4;
965                 if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_IPCKSUM_ERR)) {
966                         EFX_EV_QSTAT_INCR(eep, EV_RX_IPV4_HDR_CHKSUM_ERR);
967                 } else {
968                         flags |= EFX_CKSUM_IPV4;
969                 }
970
971                 if (l4_class == ESE_DZ_L4_CLASS_TCP) {
972                         EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_IPV4);
973                         flags |= EFX_PKT_TCP;
974                 } else if (l4_class == ESE_DZ_L4_CLASS_UDP) {
975                         EFX_EV_QSTAT_INCR(eep, EV_RX_UDP_IPV4);
976                         flags |= EFX_PKT_UDP;
977                 } else {
978                         EFX_EV_QSTAT_INCR(eep, EV_RX_OTHER_IPV4);
979                 }
980                 break;
981
982         case ESE_DZ_L3_CLASS_IP6:
983         case ESE_DZ_L3_CLASS_IP6_FRAG:
984                 flags |= EFX_PKT_IPV6;
985
986                 if (l4_class == ESE_DZ_L4_CLASS_TCP) {
987                         EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_IPV6);
988                         flags |= EFX_PKT_TCP;
989                 } else if (l4_class == ESE_DZ_L4_CLASS_UDP) {
990                         EFX_EV_QSTAT_INCR(eep, EV_RX_UDP_IPV6);
991                         flags |= EFX_PKT_UDP;
992                 } else {
993                         EFX_EV_QSTAT_INCR(eep, EV_RX_OTHER_IPV6);
994                 }
995                 break;
996
997         default:
998                 EFX_EV_QSTAT_INCR(eep, EV_RX_NON_IP);
999                 break;
1000         }
1001
1002         if (flags & (EFX_PKT_TCP | EFX_PKT_UDP)) {
1003                 if (EFX_QWORD_FIELD(*eqp, ESF_DZ_RX_TCPUDP_CKSUM_ERR)) {
1004                         EFX_EV_QSTAT_INCR(eep, EV_RX_TCP_UDP_CHKSUM_ERR);
1005                 } else {
1006                         flags |= EFX_CKSUM_TCPUDP;
1007                 }
1008         }
1009
1010 deliver:
1011         /* If we're not discarding the packet then it is ok */
1012         if (~flags & EFX_DISCARD)
1013                 EFX_EV_QSTAT_INCR(eep, EV_RX_OK);
1014
1015         EFSYS_ASSERT(eecp->eec_rx != NULL);
1016         should_abort = eecp->eec_rx(arg, label, last_used_id, size, flags);
1017
1018         return (should_abort);
1019 }
1020
1021 static  __checkReturn   boolean_t
1022 ef10_ev_tx(
1023         __in            efx_evq_t *eep,
1024         __in            efx_qword_t *eqp,
1025         __in            const efx_ev_callbacks_t *eecp,
1026         __in_opt        void *arg)
1027 {
1028         efx_nic_t *enp = eep->ee_enp;
1029         uint32_t id;
1030         uint32_t label;
1031         boolean_t should_abort;
1032
1033         EFX_EV_QSTAT_INCR(eep, EV_TX);
1034
1035         /* Discard events after RXQ/TXQ errors */
1036         if (enp->en_reset_flags & (EFX_RESET_RXQ_ERR | EFX_RESET_TXQ_ERR))
1037                 return (B_FALSE);
1038
1039         if (EFX_QWORD_FIELD(*eqp, ESF_DZ_TX_DROP_EVENT) != 0) {
1040                 /* Drop this event */
1041                 return (B_FALSE);
1042         }
1043
1044         /* Per-packet TX completion (was per-descriptor for Falcon/Siena) */
1045         id = EFX_QWORD_FIELD(*eqp, ESF_DZ_TX_DESCR_INDX);
1046         label = EFX_QWORD_FIELD(*eqp, ESF_DZ_TX_QLABEL);
1047
1048         EFSYS_PROBE2(tx_complete, uint32_t, label, uint32_t, id);
1049
1050         EFSYS_ASSERT(eecp->eec_tx != NULL);
1051         should_abort = eecp->eec_tx(arg, label, id);
1052
1053         return (should_abort);
1054 }
1055
1056 static  __checkReturn   boolean_t
1057 ef10_ev_driver(
1058         __in            efx_evq_t *eep,
1059         __in            efx_qword_t *eqp,
1060         __in            const efx_ev_callbacks_t *eecp,
1061         __in_opt        void *arg)
1062 {
1063         unsigned int code;
1064         boolean_t should_abort;
1065
1066         EFX_EV_QSTAT_INCR(eep, EV_DRIVER);
1067         should_abort = B_FALSE;
1068
1069         code = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_SUB_CODE);
1070         switch (code) {
1071         case ESE_DZ_DRV_TIMER_EV: {
1072                 uint32_t id;
1073
1074                 id = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_TMR_ID);
1075
1076                 EFSYS_ASSERT(eecp->eec_timer != NULL);
1077                 should_abort = eecp->eec_timer(arg, id);
1078                 break;
1079         }
1080
1081         case ESE_DZ_DRV_WAKE_UP_EV: {
1082                 uint32_t id;
1083
1084                 id = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_EVQ_ID);
1085
1086                 EFSYS_ASSERT(eecp->eec_wake_up != NULL);
1087                 should_abort = eecp->eec_wake_up(arg, id);
1088                 break;
1089         }
1090
1091         case ESE_DZ_DRV_START_UP_EV:
1092                 EFSYS_ASSERT(eecp->eec_initialized != NULL);
1093                 should_abort = eecp->eec_initialized(arg);
1094                 break;
1095
1096         default:
1097                 EFSYS_PROBE3(bad_event, unsigned int, eep->ee_index,
1098                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1099                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1100                 break;
1101         }
1102
1103         return (should_abort);
1104 }
1105
1106 static  __checkReturn   boolean_t
1107 ef10_ev_drv_gen(
1108         __in            efx_evq_t *eep,
1109         __in            efx_qword_t *eqp,
1110         __in            const efx_ev_callbacks_t *eecp,
1111         __in_opt        void *arg)
1112 {
1113         uint32_t data;
1114         boolean_t should_abort;
1115
1116         EFX_EV_QSTAT_INCR(eep, EV_DRV_GEN);
1117         should_abort = B_FALSE;
1118
1119         data = EFX_QWORD_FIELD(*eqp, ESF_DZ_DRV_SUB_DATA_DW0);
1120         if (data >= ((uint32_t)1 << 16)) {
1121                 EFSYS_PROBE3(bad_event, unsigned int, eep->ee_index,
1122                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1123                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1124
1125                 return (B_TRUE);
1126         }
1127
1128         EFSYS_ASSERT(eecp->eec_software != NULL);
1129         should_abort = eecp->eec_software(arg, (uint16_t)data);
1130
1131         return (should_abort);
1132 }
1133
1134 static  __checkReturn   boolean_t
1135 ef10_ev_mcdi(
1136         __in            efx_evq_t *eep,
1137         __in            efx_qword_t *eqp,
1138         __in            const efx_ev_callbacks_t *eecp,
1139         __in_opt        void *arg)
1140 {
1141         efx_nic_t *enp = eep->ee_enp;
1142         unsigned int code;
1143         boolean_t should_abort = B_FALSE;
1144
1145         EFX_EV_QSTAT_INCR(eep, EV_MCDI_RESPONSE);
1146
1147         code = EFX_QWORD_FIELD(*eqp, MCDI_EVENT_CODE);
1148         switch (code) {
1149         case MCDI_EVENT_CODE_BADSSERT:
1150                 efx_mcdi_ev_death(enp, EINTR);
1151                 break;
1152
1153         case MCDI_EVENT_CODE_CMDDONE:
1154                 efx_mcdi_ev_cpl(enp,
1155                     MCDI_EV_FIELD(eqp, CMDDONE_SEQ),
1156                     MCDI_EV_FIELD(eqp, CMDDONE_DATALEN),
1157                     MCDI_EV_FIELD(eqp, CMDDONE_ERRNO));
1158                 break;
1159
1160 #if EFSYS_OPT_MCDI_PROXY_AUTH
1161         case MCDI_EVENT_CODE_PROXY_RESPONSE:
1162                 /*
1163                  * This event notifies a function that an authorization request
1164                  * has been processed. If the request was authorized then the
1165                  * function can now re-send the original MCDI request.
1166                  * See SF-113652-SW "SR-IOV Proxied Network Access Control".
1167                  */
1168                 efx_mcdi_ev_proxy_response(enp,
1169                     MCDI_EV_FIELD(eqp, PROXY_RESPONSE_HANDLE),
1170                     MCDI_EV_FIELD(eqp, PROXY_RESPONSE_RC));
1171                 break;
1172 #endif /* EFSYS_OPT_MCDI_PROXY_AUTH */
1173
1174         case MCDI_EVENT_CODE_LINKCHANGE: {
1175                 efx_link_mode_t link_mode;
1176
1177                 ef10_phy_link_ev(enp, eqp, &link_mode);
1178                 should_abort = eecp->eec_link_change(arg, link_mode);
1179                 break;
1180         }
1181
1182         case MCDI_EVENT_CODE_SENSOREVT: {
1183 #if EFSYS_OPT_MON_STATS
1184                 efx_mon_stat_t id;
1185                 efx_mon_stat_value_t value;
1186                 efx_rc_t rc;
1187
1188                 /* Decode monitor stat for MCDI sensor (if supported) */
1189                 if ((rc = mcdi_mon_ev(enp, eqp, &id, &value)) == 0) {
1190                         /* Report monitor stat change */
1191                         should_abort = eecp->eec_monitor(arg, id, value);
1192                 } else if (rc == ENOTSUP) {
1193                         should_abort = eecp->eec_exception(arg,
1194                                 EFX_EXCEPTION_UNKNOWN_SENSOREVT,
1195                                 MCDI_EV_FIELD(eqp, DATA));
1196                 } else {
1197                         EFSYS_ASSERT(rc == ENODEV);     /* Wrong port */
1198                 }
1199 #endif
1200                 break;
1201         }
1202
1203         case MCDI_EVENT_CODE_SCHEDERR:
1204                 /* Informational only */
1205                 break;
1206
1207         case MCDI_EVENT_CODE_REBOOT:
1208                 /* Falcon/Siena only (should not been seen with Huntington). */
1209                 efx_mcdi_ev_death(enp, EIO);
1210                 break;
1211
1212         case MCDI_EVENT_CODE_MC_REBOOT:
1213                 /* MC_REBOOT event is used for Huntington (EF10) and later. */
1214                 efx_mcdi_ev_death(enp, EIO);
1215                 break;
1216
1217         case MCDI_EVENT_CODE_MAC_STATS_DMA:
1218 #if EFSYS_OPT_MAC_STATS
1219                 if (eecp->eec_mac_stats != NULL) {
1220                         eecp->eec_mac_stats(arg,
1221                             MCDI_EV_FIELD(eqp, MAC_STATS_DMA_GENERATION));
1222                 }
1223 #endif
1224                 break;
1225
1226         case MCDI_EVENT_CODE_FWALERT: {
1227                 uint32_t reason = MCDI_EV_FIELD(eqp, FWALERT_REASON);
1228
1229                 if (reason == MCDI_EVENT_FWALERT_REASON_SRAM_ACCESS)
1230                         should_abort = eecp->eec_exception(arg,
1231                                 EFX_EXCEPTION_FWALERT_SRAM,
1232                                 MCDI_EV_FIELD(eqp, FWALERT_DATA));
1233                 else
1234                         should_abort = eecp->eec_exception(arg,
1235                                 EFX_EXCEPTION_UNKNOWN_FWALERT,
1236                                 MCDI_EV_FIELD(eqp, DATA));
1237                 break;
1238         }
1239
1240         case MCDI_EVENT_CODE_TX_ERR: {
1241                 /*
1242                  * After a TXQ error is detected, firmware sends a TX_ERR event.
1243                  * This may be followed by TX completions (which we discard),
1244                  * and then finally by a TX_FLUSH event. Firmware destroys the
1245                  * TXQ automatically after sending the TX_FLUSH event.
1246                  */
1247                 enp->en_reset_flags |= EFX_RESET_TXQ_ERR;
1248
1249                 EFSYS_PROBE2(tx_descq_err,
1250                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1251                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1252
1253                 /* Inform the driver that a reset is required. */
1254                 eecp->eec_exception(arg, EFX_EXCEPTION_TX_ERROR,
1255                     MCDI_EV_FIELD(eqp, TX_ERR_DATA));
1256                 break;
1257         }
1258
1259         case MCDI_EVENT_CODE_TX_FLUSH: {
1260                 uint32_t txq_index = MCDI_EV_FIELD(eqp, TX_FLUSH_TXQ);
1261
1262                 /*
1263                  * EF10 firmware sends two TX_FLUSH events: one to the txq's
1264                  * event queue, and one to evq 0 (with TX_FLUSH_TO_DRIVER set).
1265                  * We want to wait for all completions, so ignore the events
1266                  * with TX_FLUSH_TO_DRIVER.
1267                  */
1268                 if (MCDI_EV_FIELD(eqp, TX_FLUSH_TO_DRIVER) != 0) {
1269                         should_abort = B_FALSE;
1270                         break;
1271                 }
1272
1273                 EFX_EV_QSTAT_INCR(eep, EV_DRIVER_TX_DESCQ_FLS_DONE);
1274
1275                 EFSYS_PROBE1(tx_descq_fls_done, uint32_t, txq_index);
1276
1277                 EFSYS_ASSERT(eecp->eec_txq_flush_done != NULL);
1278                 should_abort = eecp->eec_txq_flush_done(arg, txq_index);
1279                 break;
1280         }
1281
1282         case MCDI_EVENT_CODE_RX_ERR: {
1283                 /*
1284                  * After an RXQ error is detected, firmware sends an RX_ERR
1285                  * event. This may be followed by RX events (which we discard),
1286                  * and then finally by an RX_FLUSH event. Firmware destroys the
1287                  * RXQ automatically after sending the RX_FLUSH event.
1288                  */
1289                 enp->en_reset_flags |= EFX_RESET_RXQ_ERR;
1290
1291                 EFSYS_PROBE2(rx_descq_err,
1292                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1293                             uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1294
1295                 /* Inform the driver that a reset is required. */
1296                 eecp->eec_exception(arg, EFX_EXCEPTION_RX_ERROR,
1297                     MCDI_EV_FIELD(eqp, RX_ERR_DATA));
1298                 break;
1299         }
1300
1301         case MCDI_EVENT_CODE_RX_FLUSH: {
1302                 uint32_t rxq_index = MCDI_EV_FIELD(eqp, RX_FLUSH_RXQ);
1303
1304                 /*
1305                  * EF10 firmware sends two RX_FLUSH events: one to the rxq's
1306                  * event queue, and one to evq 0 (with RX_FLUSH_TO_DRIVER set).
1307                  * We want to wait for all completions, so ignore the events
1308                  * with RX_FLUSH_TO_DRIVER.
1309                  */
1310                 if (MCDI_EV_FIELD(eqp, RX_FLUSH_TO_DRIVER) != 0) {
1311                         should_abort = B_FALSE;
1312                         break;
1313                 }
1314
1315                 EFX_EV_QSTAT_INCR(eep, EV_DRIVER_RX_DESCQ_FLS_DONE);
1316
1317                 EFSYS_PROBE1(rx_descq_fls_done, uint32_t, rxq_index);
1318
1319                 EFSYS_ASSERT(eecp->eec_rxq_flush_done != NULL);
1320                 should_abort = eecp->eec_rxq_flush_done(arg, rxq_index);
1321                 break;
1322         }
1323
1324         default:
1325                 EFSYS_PROBE3(bad_event, unsigned int, eep->ee_index,
1326                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_1),
1327                     uint32_t, EFX_QWORD_FIELD(*eqp, EFX_DWORD_0));
1328                 break;
1329         }
1330
1331         return (should_abort);
1332 }
1333
1334                 void
1335 ef10_ev_rxlabel_init(
1336         __in            efx_evq_t *eep,
1337         __in            efx_rxq_t *erp,
1338         __in            unsigned int label,
1339         __in            boolean_t packed_stream)
1340 {
1341         efx_evq_rxq_state_t *eersp;
1342
1343         EFSYS_ASSERT3U(label, <, EFX_ARRAY_SIZE(eep->ee_rxq_state));
1344         eersp = &eep->ee_rxq_state[label];
1345
1346         EFSYS_ASSERT3U(eersp->eers_rx_mask, ==, 0);
1347
1348 #if EFSYS_OPT_RX_PACKED_STREAM
1349         /*
1350          * For packed stream modes, the very first event will
1351          * have a new buffer flag set, so it will be incremented,
1352          * yielding the correct pointer. That results in a simpler
1353          * code than trying to detect start-of-the-world condition
1354          * in the event handler.
1355          */
1356         eersp->eers_rx_read_ptr = packed_stream ? ~0 : 0;
1357 #else
1358         eersp->eers_rx_read_ptr = 0;
1359 #endif
1360         eersp->eers_rx_mask = erp->er_mask;
1361 #if EFSYS_OPT_RX_PACKED_STREAM
1362         eersp->eers_rx_stream_npackets = 0;
1363         eersp->eers_rx_packed_stream = packed_stream;
1364         if (packed_stream) {
1365                 eersp->eers_rx_packed_stream_credits = (eep->ee_mask + 1) /
1366                     (EFX_RX_PACKED_STREAM_MEM_PER_CREDIT /
1367                     EFX_RX_PACKED_STREAM_MIN_PACKET_SPACE);
1368                 EFSYS_ASSERT3U(eersp->eers_rx_packed_stream_credits, !=, 0);
1369                 /*
1370                  * A single credit is allocated to the queue when it is started.
1371                  * It is immediately spent by the first packet which has NEW
1372                  * BUFFER flag set, though, but still we shall take into
1373                  * account, as to not wrap around the maximum number of credits
1374                  * accidentally
1375                  */
1376                 eersp->eers_rx_packed_stream_credits--;
1377                 EFSYS_ASSERT3U(eersp->eers_rx_packed_stream_credits, <=,
1378                     EFX_RX_PACKED_STREAM_MAX_CREDITS);
1379         }
1380 #else
1381         EFSYS_ASSERT(!packed_stream);
1382 #endif
1383 }
1384
1385                 void
1386 ef10_ev_rxlabel_fini(
1387         __in            efx_evq_t *eep,
1388         __in            unsigned int label)
1389 {
1390         efx_evq_rxq_state_t *eersp;
1391
1392         EFSYS_ASSERT3U(label, <, EFX_ARRAY_SIZE(eep->ee_rxq_state));
1393         eersp = &eep->ee_rxq_state[label];
1394
1395         EFSYS_ASSERT3U(eersp->eers_rx_mask, !=, 0);
1396
1397         eersp->eers_rx_read_ptr = 0;
1398         eersp->eers_rx_mask = 0;
1399 #if EFSYS_OPT_RX_PACKED_STREAM
1400         eersp->eers_rx_stream_npackets = 0;
1401         eersp->eers_rx_packed_stream = B_FALSE;
1402         eersp->eers_rx_packed_stream_credits = 0;
1403 #endif
1404 }
1405
1406 #endif  /* EFSYS_OPT_HUNTINGTON || EFSYS_OPT_MEDFORD */