Merge branch 'for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git/roland...
[pandora-kernel.git] / drivers / infiniband / hw / qib / qib_iba7322.c
1 /*
2  * Copyright (c) 2008, 2009, 2010 QLogic Corporation. All rights reserved.
3  *
4  * This software is available to you under a choice of one of two
5  * licenses.  You may choose to be licensed under the terms of the GNU
6  * General Public License (GPL) Version 2, available from the file
7  * COPYING in the main directory of this source tree, or the
8  * OpenIB.org BSD license below:
9  *
10  *     Redistribution and use in source and binary forms, with or
11  *     without modification, are permitted provided that the following
12  *     conditions are met:
13  *
14  *      - Redistributions of source code must retain the above
15  *        copyright notice, this list of conditions and the following
16  *        disclaimer.
17  *
18  *      - Redistributions in binary form must reproduce the above
19  *        copyright notice, this list of conditions and the following
20  *        disclaimer in the documentation and/or other materials
21  *        provided with the distribution.
22  *
23  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
24  * EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
25  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
26  * NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
27  * BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
28  * ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
29  * CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
30  * SOFTWARE.
31  */
32
33 /*
34  * This file contains all of the code that is specific to the
35  * InfiniPath 7322 chip
36  */
37
38 #include <linux/interrupt.h>
39 #include <linux/pci.h>
40 #include <linux/delay.h>
41 #include <linux/io.h>
42 #include <linux/jiffies.h>
43 #include <rdma/ib_verbs.h>
44 #include <rdma/ib_smi.h>
45
46 #include "qib.h"
47 #include "qib_7322_regs.h"
48 #include "qib_qsfp.h"
49
50 #include "qib_mad.h"
51
52 static void qib_setup_7322_setextled(struct qib_pportdata *, u32);
53 static void qib_7322_handle_hwerrors(struct qib_devdata *, char *, size_t);
54 static void sendctrl_7322_mod(struct qib_pportdata *ppd, u32 op);
55 static irqreturn_t qib_7322intr(int irq, void *data);
56 static irqreturn_t qib_7322bufavail(int irq, void *data);
57 static irqreturn_t sdma_intr(int irq, void *data);
58 static irqreturn_t sdma_idle_intr(int irq, void *data);
59 static irqreturn_t sdma_progress_intr(int irq, void *data);
60 static irqreturn_t sdma_cleanup_intr(int irq, void *data);
61 static void qib_7322_txchk_change(struct qib_devdata *, u32, u32, u32,
62                                   struct qib_ctxtdata *rcd);
63 static u8 qib_7322_phys_portstate(u64);
64 static u32 qib_7322_iblink_state(u64);
65 static void qib_set_ib_7322_lstate(struct qib_pportdata *ppd, u16 linkcmd,
66                                    u16 linitcmd);
67 static void force_h1(struct qib_pportdata *);
68 static void adj_tx_serdes(struct qib_pportdata *);
69 static u32 qib_7322_setpbc_control(struct qib_pportdata *, u32, u8, u8);
70 static void qib_7322_mini_pcs_reset(struct qib_pportdata *);
71
72 static u32 ahb_mod(struct qib_devdata *, int, int, int, u32, u32);
73 static void ibsd_wr_allchans(struct qib_pportdata *, int, unsigned, unsigned);
74 static void serdes_7322_los_enable(struct qib_pportdata *, int);
75 static int serdes_7322_init_old(struct qib_pportdata *);
76 static int serdes_7322_init_new(struct qib_pportdata *);
77
78 #define BMASK(msb, lsb) (((1 << ((msb) + 1 - (lsb))) - 1) << (lsb))
79
80 /* LE2 serdes values for different cases */
81 #define LE2_DEFAULT 5
82 #define LE2_5m 4
83 #define LE2_QME 0
84
85 /* Below is special-purpose, so only really works for the IB SerDes blocks. */
86 #define IBSD(hw_pidx) (hw_pidx + 2)
87
88 /* these are variables for documentation and experimentation purposes */
89 static const unsigned rcv_int_timeout = 375;
90 static const unsigned rcv_int_count = 16;
91 static const unsigned sdma_idle_cnt = 64;
92
93 /* Time to stop altering Rx Equalization parameters, after link up. */
94 #define RXEQ_DISABLE_MSECS 2500
95
96 /*
97  * Number of VLs we are configured to use (to allow for more
98  * credits per vl, etc.)
99  */
100 ushort qib_num_cfg_vls = 2;
101 module_param_named(num_vls, qib_num_cfg_vls, ushort, S_IRUGO);
102 MODULE_PARM_DESC(num_vls, "Set number of Virtual Lanes to use (1-8)");
103
104 static ushort qib_chase = 1;
105 module_param_named(chase, qib_chase, ushort, S_IRUGO);
106 MODULE_PARM_DESC(chase, "Enable state chase handling");
107
108 static ushort qib_long_atten = 10; /* 10 dB ~= 5m length */
109 module_param_named(long_attenuation, qib_long_atten, ushort, S_IRUGO);
110 MODULE_PARM_DESC(long_attenuation, \
111                  "attenuation cutoff (dB) for long copper cable setup");
112
113 static ushort qib_singleport;
114 module_param_named(singleport, qib_singleport, ushort, S_IRUGO);
115 MODULE_PARM_DESC(singleport, "Use only IB port 1; more per-port buffer space");
116
117 /*
118  * Receive header queue sizes
119  */
120 static unsigned qib_rcvhdrcnt;
121 module_param_named(rcvhdrcnt, qib_rcvhdrcnt, uint, S_IRUGO);
122 MODULE_PARM_DESC(rcvhdrcnt, "receive header count");
123
124 static unsigned qib_rcvhdrsize;
125 module_param_named(rcvhdrsize, qib_rcvhdrsize, uint, S_IRUGO);
126 MODULE_PARM_DESC(rcvhdrsize, "receive header size in 32-bit words");
127
128 static unsigned qib_rcvhdrentsize;
129 module_param_named(rcvhdrentsize, qib_rcvhdrentsize, uint, S_IRUGO);
130 MODULE_PARM_DESC(rcvhdrentsize, "receive header entry size in 32-bit words");
131
132 #define MAX_ATTEN_LEN 64 /* plenty for any real system */
133 /* for read back, default index is ~5m copper cable */
134 static char txselect_list[MAX_ATTEN_LEN] = "10";
135 static struct kparam_string kp_txselect = {
136         .string = txselect_list,
137         .maxlen = MAX_ATTEN_LEN
138 };
139 static int  setup_txselect(const char *, struct kernel_param *);
140 module_param_call(txselect, setup_txselect, param_get_string,
141                   &kp_txselect, S_IWUSR | S_IRUGO);
142 MODULE_PARM_DESC(txselect, \
143                  "Tx serdes indices (for no QSFP or invalid QSFP data)");
144
145 #define BOARD_QME7342 5
146 #define BOARD_QMH7342 6
147 #define IS_QMH(dd) (SYM_FIELD((dd)->revision, Revision, BoardID) == \
148                     BOARD_QMH7342)
149 #define IS_QME(dd) (SYM_FIELD((dd)->revision, Revision, BoardID) == \
150                     BOARD_QME7342)
151
152 #define KREG_IDX(regname)     (QIB_7322_##regname##_OFFS / sizeof(u64))
153
154 #define KREG_IBPORT_IDX(regname) ((QIB_7322_##regname##_0_OFFS / sizeof(u64)))
155
156 #define MASK_ACROSS(lsb, msb) \
157         (((1ULL << ((msb) + 1 - (lsb))) - 1) << (lsb))
158
159 #define SYM_RMASK(regname, fldname) ((u64)              \
160         QIB_7322_##regname##_##fldname##_RMASK)
161
162 #define SYM_MASK(regname, fldname) ((u64)               \
163         QIB_7322_##regname##_##fldname##_RMASK <<       \
164          QIB_7322_##regname##_##fldname##_LSB)
165
166 #define SYM_FIELD(value, regname, fldname) ((u64)       \
167         (((value) >> SYM_LSB(regname, fldname)) &       \
168          SYM_RMASK(regname, fldname)))
169
170 /* useful for things like LaFifoEmpty_0...7, TxCreditOK_0...7, etc. */
171 #define SYM_FIELD_ACROSS(value, regname, fldname, nbits) \
172         (((value) >> SYM_LSB(regname, fldname)) & MASK_ACROSS(0, nbits))
173
174 #define HWE_MASK(fldname) SYM_MASK(HwErrMask, fldname##Mask)
175 #define ERR_MASK(fldname) SYM_MASK(ErrMask, fldname##Mask)
176 #define ERR_MASK_N(fldname) SYM_MASK(ErrMask_0, fldname##Mask)
177 #define INT_MASK(fldname) SYM_MASK(IntMask, fldname##IntMask)
178 #define INT_MASK_P(fldname, port) SYM_MASK(IntMask, fldname##IntMask##_##port)
179 /* Below because most, but not all, fields of IntMask have that full suffix */
180 #define INT_MASK_PM(fldname, port) SYM_MASK(IntMask, fldname##Mask##_##port)
181
182
183 #define SYM_LSB(regname, fldname) (QIB_7322_##regname##_##fldname##_LSB)
184
185 /*
186  * the size bits give us 2^N, in KB units.  0 marks as invalid,
187  * and 7 is reserved.  We currently use only 2KB and 4KB
188  */
189 #define IBA7322_TID_SZ_SHIFT QIB_7322_RcvTIDArray0_RT_BufSize_LSB
190 #define IBA7322_TID_SZ_2K (1UL<<IBA7322_TID_SZ_SHIFT) /* 2KB */
191 #define IBA7322_TID_SZ_4K (2UL<<IBA7322_TID_SZ_SHIFT) /* 4KB */
192 #define IBA7322_TID_PA_SHIFT 11U /* TID addr in chip stored w/o low bits */
193
194 #define SendIBSLIDAssignMask \
195         QIB_7322_SendIBSLIDAssign_0_SendIBSLIDAssign_15_0_RMASK
196 #define SendIBSLMCMask \
197         QIB_7322_SendIBSLIDMask_0_SendIBSLIDMask_15_0_RMASK
198
199 #define ExtLED_IB1_YEL SYM_MASK(EXTCtrl, LEDPort0YellowOn)
200 #define ExtLED_IB1_GRN SYM_MASK(EXTCtrl, LEDPort0GreenOn)
201 #define ExtLED_IB2_YEL SYM_MASK(EXTCtrl, LEDPort1YellowOn)
202 #define ExtLED_IB2_GRN SYM_MASK(EXTCtrl, LEDPort1GreenOn)
203 #define ExtLED_IB1_MASK (ExtLED_IB1_YEL | ExtLED_IB1_GRN)
204 #define ExtLED_IB2_MASK (ExtLED_IB2_YEL | ExtLED_IB2_GRN)
205
206 #define _QIB_GPIO_SDA_NUM 1
207 #define _QIB_GPIO_SCL_NUM 0
208 #define QIB_EEPROM_WEN_NUM 14
209 #define QIB_TWSI_EEPROM_DEV 0xA2 /* All Production 7322 cards. */
210
211 /* HW counter clock is at 4nsec */
212 #define QIB_7322_PSXMITWAIT_CHECK_RATE 4000
213
214 /* full speed IB port 1 only */
215 #define PORT_SPD_CAP (QIB_IB_SDR | QIB_IB_DDR | QIB_IB_QDR)
216 #define PORT_SPD_CAP_SHIFT 3
217
218 /* full speed featuremask, both ports */
219 #define DUAL_PORT_CAP (PORT_SPD_CAP | (PORT_SPD_CAP << PORT_SPD_CAP_SHIFT))
220
221 /*
222  * This file contains almost all the chip-specific register information and
223  * access functions for the FAKED QLogic InfiniPath 7322 PCI-Express chip.
224  */
225
226 /* Use defines to tie machine-generated names to lower-case names */
227 #define kr_contextcnt KREG_IDX(ContextCnt)
228 #define kr_control KREG_IDX(Control)
229 #define kr_counterregbase KREG_IDX(CntrRegBase)
230 #define kr_errclear KREG_IDX(ErrClear)
231 #define kr_errmask KREG_IDX(ErrMask)
232 #define kr_errstatus KREG_IDX(ErrStatus)
233 #define kr_extctrl KREG_IDX(EXTCtrl)
234 #define kr_extstatus KREG_IDX(EXTStatus)
235 #define kr_gpio_clear KREG_IDX(GPIOClear)
236 #define kr_gpio_mask KREG_IDX(GPIOMask)
237 #define kr_gpio_out KREG_IDX(GPIOOut)
238 #define kr_gpio_status KREG_IDX(GPIOStatus)
239 #define kr_hwdiagctrl KREG_IDX(HwDiagCtrl)
240 #define kr_debugportval KREG_IDX(DebugPortValueReg)
241 #define kr_fmask KREG_IDX(feature_mask)
242 #define kr_act_fmask KREG_IDX(active_feature_mask)
243 #define kr_hwerrclear KREG_IDX(HwErrClear)
244 #define kr_hwerrmask KREG_IDX(HwErrMask)
245 #define kr_hwerrstatus KREG_IDX(HwErrStatus)
246 #define kr_intclear KREG_IDX(IntClear)
247 #define kr_intmask KREG_IDX(IntMask)
248 #define kr_intredirect KREG_IDX(IntRedirect0)
249 #define kr_intstatus KREG_IDX(IntStatus)
250 #define kr_pagealign KREG_IDX(PageAlign)
251 #define kr_rcvavailtimeout KREG_IDX(RcvAvailTimeOut0)
252 #define kr_rcvctrl KREG_IDX(RcvCtrl) /* Common, but chip also has per-port */
253 #define kr_rcvegrbase KREG_IDX(RcvEgrBase)
254 #define kr_rcvegrcnt KREG_IDX(RcvEgrCnt)
255 #define kr_rcvhdrcnt KREG_IDX(RcvHdrCnt)
256 #define kr_rcvhdrentsize KREG_IDX(RcvHdrEntSize)
257 #define kr_rcvhdrsize KREG_IDX(RcvHdrSize)
258 #define kr_rcvtidbase KREG_IDX(RcvTIDBase)
259 #define kr_rcvtidcnt KREG_IDX(RcvTIDCnt)
260 #define kr_revision KREG_IDX(Revision)
261 #define kr_scratch KREG_IDX(Scratch)
262 #define kr_sendbuffererror KREG_IDX(SendBufErr0) /* and base for 1 and 2 */
263 #define kr_sendcheckmask KREG_IDX(SendCheckMask0) /* and 1, 2 */
264 #define kr_sendctrl KREG_IDX(SendCtrl)
265 #define kr_sendgrhcheckmask KREG_IDX(SendGRHCheckMask0) /* and 1, 2 */
266 #define kr_sendibpktmask KREG_IDX(SendIBPacketMask0) /* and 1, 2 */
267 #define kr_sendpioavailaddr KREG_IDX(SendBufAvailAddr)
268 #define kr_sendpiobufbase KREG_IDX(SendBufBase)
269 #define kr_sendpiobufcnt KREG_IDX(SendBufCnt)
270 #define kr_sendpiosize KREG_IDX(SendBufSize)
271 #define kr_sendregbase KREG_IDX(SendRegBase)
272 #define kr_sendbufavail0 KREG_IDX(SendBufAvail0)
273 #define kr_userregbase KREG_IDX(UserRegBase)
274 #define kr_intgranted KREG_IDX(Int_Granted)
275 #define kr_vecclr_wo_int KREG_IDX(vec_clr_without_int)
276 #define kr_intblocked KREG_IDX(IntBlocked)
277 #define kr_r_access KREG_IDX(SPC_JTAG_ACCESS_REG)
278
279 /*
280  * per-port kernel registers.  Access only with qib_read_kreg_port()
281  * or qib_write_kreg_port()
282  */
283 #define krp_errclear KREG_IBPORT_IDX(ErrClear)
284 #define krp_errmask KREG_IBPORT_IDX(ErrMask)
285 #define krp_errstatus KREG_IBPORT_IDX(ErrStatus)
286 #define krp_highprio_0 KREG_IBPORT_IDX(HighPriority0)
287 #define krp_highprio_limit KREG_IBPORT_IDX(HighPriorityLimit)
288 #define krp_hrtbt_guid KREG_IBPORT_IDX(HRTBT_GUID)
289 #define krp_ib_pcsconfig KREG_IBPORT_IDX(IBPCSConfig)
290 #define krp_ibcctrl_a KREG_IBPORT_IDX(IBCCtrlA)
291 #define krp_ibcctrl_b KREG_IBPORT_IDX(IBCCtrlB)
292 #define krp_ibcctrl_c KREG_IBPORT_IDX(IBCCtrlC)
293 #define krp_ibcstatus_a KREG_IBPORT_IDX(IBCStatusA)
294 #define krp_ibcstatus_b KREG_IBPORT_IDX(IBCStatusB)
295 #define krp_txestatus KREG_IBPORT_IDX(TXEStatus)
296 #define krp_lowprio_0 KREG_IBPORT_IDX(LowPriority0)
297 #define krp_ncmodectrl KREG_IBPORT_IDX(IBNCModeCtrl)
298 #define krp_partitionkey KREG_IBPORT_IDX(RcvPartitionKey)
299 #define krp_psinterval KREG_IBPORT_IDX(PSInterval)
300 #define krp_psstart KREG_IBPORT_IDX(PSStart)
301 #define krp_psstat KREG_IBPORT_IDX(PSStat)
302 #define krp_rcvbthqp KREG_IBPORT_IDX(RcvBTHQP)
303 #define krp_rcvctrl KREG_IBPORT_IDX(RcvCtrl)
304 #define krp_rcvpktledcnt KREG_IBPORT_IDX(RcvPktLEDCnt)
305 #define krp_rcvqpmaptable KREG_IBPORT_IDX(RcvQPMapTableA)
306 #define krp_rxcreditvl0 KREG_IBPORT_IDX(RxCreditVL0)
307 #define krp_rxcreditvl15 (KREG_IBPORT_IDX(RxCreditVL0)+15)
308 #define krp_sendcheckcontrol KREG_IBPORT_IDX(SendCheckControl)
309 #define krp_sendctrl KREG_IBPORT_IDX(SendCtrl)
310 #define krp_senddmabase KREG_IBPORT_IDX(SendDmaBase)
311 #define krp_senddmabufmask0 KREG_IBPORT_IDX(SendDmaBufMask0)
312 #define krp_senddmabufmask1 (KREG_IBPORT_IDX(SendDmaBufMask0) + 1)
313 #define krp_senddmabufmask2 (KREG_IBPORT_IDX(SendDmaBufMask0) + 2)
314 #define krp_senddmabuf_use0 KREG_IBPORT_IDX(SendDmaBufUsed0)
315 #define krp_senddmabuf_use1 (KREG_IBPORT_IDX(SendDmaBufUsed0) + 1)
316 #define krp_senddmabuf_use2 (KREG_IBPORT_IDX(SendDmaBufUsed0) + 2)
317 #define krp_senddmadesccnt KREG_IBPORT_IDX(SendDmaDescCnt)
318 #define krp_senddmahead KREG_IBPORT_IDX(SendDmaHead)
319 #define krp_senddmaheadaddr KREG_IBPORT_IDX(SendDmaHeadAddr)
320 #define krp_senddmaidlecnt KREG_IBPORT_IDX(SendDmaIdleCnt)
321 #define krp_senddmalengen KREG_IBPORT_IDX(SendDmaLenGen)
322 #define krp_senddmaprioritythld KREG_IBPORT_IDX(SendDmaPriorityThld)
323 #define krp_senddmareloadcnt KREG_IBPORT_IDX(SendDmaReloadCnt)
324 #define krp_senddmastatus KREG_IBPORT_IDX(SendDmaStatus)
325 #define krp_senddmatail KREG_IBPORT_IDX(SendDmaTail)
326 #define krp_sendhdrsymptom KREG_IBPORT_IDX(SendHdrErrSymptom)
327 #define krp_sendslid KREG_IBPORT_IDX(SendIBSLIDAssign)
328 #define krp_sendslidmask KREG_IBPORT_IDX(SendIBSLIDMask)
329 #define krp_ibsdtestiftx KREG_IBPORT_IDX(IB_SDTEST_IF_TX)
330 #define krp_adapt_dis_timer KREG_IBPORT_IDX(ADAPT_DISABLE_TIMER_THRESHOLD)
331 #define krp_tx_deemph_override KREG_IBPORT_IDX(IBSD_TX_DEEMPHASIS_OVERRIDE)
332 #define krp_serdesctrl KREG_IBPORT_IDX(IBSerdesCtrl)
333
334 /*
335  * Per-context kernel registers.  Access only with qib_read_kreg_ctxt()
336  * or qib_write_kreg_ctxt()
337  */
338 #define krc_rcvhdraddr KREG_IDX(RcvHdrAddr0)
339 #define krc_rcvhdrtailaddr KREG_IDX(RcvHdrTailAddr0)
340
341 /*
342  * TID Flow table, per context.  Reduces
343  * number of hdrq updates to one per flow (or on errors).
344  * context 0 and 1 share same memory, but have distinct
345  * addresses.  Since for now, we never use expected sends
346  * on kernel contexts, we don't worry about that (we initialize
347  * those entries for ctxt 0/1 on driver load twice, for example).
348  */
349 #define NUM_TIDFLOWS_CTXT 0x20 /* 0x20 per context; have to hardcode */
350 #define ur_rcvflowtable (KREG_IDX(RcvTIDFlowTable0) - KREG_IDX(RcvHdrTail0))
351
352 /* these are the error bits in the tid flows, and are W1C */
353 #define TIDFLOW_ERRBITS  ( \
354         (SYM_MASK(RcvTIDFlowTable0, GenMismatch) << \
355         SYM_LSB(RcvTIDFlowTable0, GenMismatch)) | \
356         (SYM_MASK(RcvTIDFlowTable0, SeqMismatch) << \
357         SYM_LSB(RcvTIDFlowTable0, SeqMismatch)))
358
359 /* Most (not all) Counters are per-IBport.
360  * Requires LBIntCnt is at offset 0 in the group
361  */
362 #define CREG_IDX(regname) \
363 ((QIB_7322_##regname##_0_OFFS - QIB_7322_LBIntCnt_OFFS) / sizeof(u64))
364
365 #define crp_badformat CREG_IDX(RxVersionErrCnt)
366 #define crp_err_rlen CREG_IDX(RxLenErrCnt)
367 #define crp_erricrc CREG_IDX(RxICRCErrCnt)
368 #define crp_errlink CREG_IDX(RxLinkMalformCnt)
369 #define crp_errlpcrc CREG_IDX(RxLPCRCErrCnt)
370 #define crp_errpkey CREG_IDX(RxPKeyMismatchCnt)
371 #define crp_errvcrc CREG_IDX(RxVCRCErrCnt)
372 #define crp_excessbufferovfl CREG_IDX(ExcessBufferOvflCnt)
373 #define crp_iblinkdown CREG_IDX(IBLinkDownedCnt)
374 #define crp_iblinkerrrecov CREG_IDX(IBLinkErrRecoveryCnt)
375 #define crp_ibstatuschange CREG_IDX(IBStatusChangeCnt)
376 #define crp_ibsymbolerr CREG_IDX(IBSymbolErrCnt)
377 #define crp_invalidrlen CREG_IDX(RxMaxMinLenErrCnt)
378 #define crp_locallinkintegrityerr CREG_IDX(LocalLinkIntegrityErrCnt)
379 #define crp_pktrcv CREG_IDX(RxDataPktCnt)
380 #define crp_pktrcvflowctrl CREG_IDX(RxFlowPktCnt)
381 #define crp_pktsend CREG_IDX(TxDataPktCnt)
382 #define crp_pktsendflow CREG_IDX(TxFlowPktCnt)
383 #define crp_psrcvdatacount CREG_IDX(PSRcvDataCount)
384 #define crp_psrcvpktscount CREG_IDX(PSRcvPktsCount)
385 #define crp_psxmitdatacount CREG_IDX(PSXmitDataCount)
386 #define crp_psxmitpktscount CREG_IDX(PSXmitPktsCount)
387 #define crp_psxmitwaitcount CREG_IDX(PSXmitWaitCount)
388 #define crp_rcvebp CREG_IDX(RxEBPCnt)
389 #define crp_rcvflowctrlviol CREG_IDX(RxFlowCtrlViolCnt)
390 #define crp_rcvovfl CREG_IDX(RxBufOvflCnt)
391 #define crp_rxdlidfltr CREG_IDX(RxDlidFltrCnt)
392 #define crp_rxdroppkt CREG_IDX(RxDroppedPktCnt)
393 #define crp_rxotherlocalphyerr CREG_IDX(RxOtherLocalPhyErrCnt)
394 #define crp_rxqpinvalidctxt CREG_IDX(RxQPInvalidContextCnt)
395 #define crp_rxvlerr CREG_IDX(RxVlErrCnt)
396 #define crp_sendstall CREG_IDX(TxFlowStallCnt)
397 #define crp_txdroppedpkt CREG_IDX(TxDroppedPktCnt)
398 #define crp_txhdrerr CREG_IDX(TxHeadersErrCnt)
399 #define crp_txlenerr CREG_IDX(TxLenErrCnt)
400 #define crp_txlenerr CREG_IDX(TxLenErrCnt)
401 #define crp_txminmaxlenerr CREG_IDX(TxMaxMinLenErrCnt)
402 #define crp_txsdmadesc CREG_IDX(TxSDmaDescCnt)
403 #define crp_txunderrun CREG_IDX(TxUnderrunCnt)
404 #define crp_txunsupvl CREG_IDX(TxUnsupVLErrCnt)
405 #define crp_vl15droppedpkt CREG_IDX(RxVL15DroppedPktCnt)
406 #define crp_wordrcv CREG_IDX(RxDwordCnt)
407 #define crp_wordsend CREG_IDX(TxDwordCnt)
408 #define crp_tx_creditstalls CREG_IDX(TxCreditUpToDateTimeOut)
409
410 /* these are the (few) counters that are not port-specific */
411 #define CREG_DEVIDX(regname) ((QIB_7322_##regname##_OFFS - \
412                         QIB_7322_LBIntCnt_OFFS) / sizeof(u64))
413 #define cr_base_egrovfl CREG_DEVIDX(RxP0HdrEgrOvflCnt)
414 #define cr_lbint CREG_DEVIDX(LBIntCnt)
415 #define cr_lbstall CREG_DEVIDX(LBFlowStallCnt)
416 #define cr_pcieretrydiag CREG_DEVIDX(PcieRetryBufDiagQwordCnt)
417 #define cr_rxtidflowdrop CREG_DEVIDX(RxTidFlowDropCnt)
418 #define cr_tidfull CREG_DEVIDX(RxTIDFullErrCnt)
419 #define cr_tidinvalid CREG_DEVIDX(RxTIDValidErrCnt)
420
421 /* no chip register for # of IB ports supported, so define */
422 #define NUM_IB_PORTS 2
423
424 /* 1 VL15 buffer per hardware IB port, no register for this, so define */
425 #define NUM_VL15_BUFS NUM_IB_PORTS
426
427 /*
428  * context 0 and 1 are special, and there is no chip register that
429  * defines this value, so we have to define it here.
430  * These are all allocated to either 0 or 1 for single port
431  * hardware configuration, otherwise each gets half
432  */
433 #define KCTXT0_EGRCNT 2048
434
435 /* values for vl and port fields in PBC, 7322-specific */
436 #define PBC_PORT_SEL_LSB 26
437 #define PBC_PORT_SEL_RMASK 1
438 #define PBC_VL_NUM_LSB 27
439 #define PBC_VL_NUM_RMASK 7
440 #define PBC_7322_VL15_SEND (1ULL << 63) /* pbc; VL15, no credit check */
441 #define PBC_7322_VL15_SEND_CTRL (1ULL << 31) /* control version of same */
442
443 static u8 ib_rate_to_delay[IB_RATE_120_GBPS + 1] = {
444         [IB_RATE_2_5_GBPS] = 16,
445         [IB_RATE_5_GBPS] = 8,
446         [IB_RATE_10_GBPS] = 4,
447         [IB_RATE_20_GBPS] = 2,
448         [IB_RATE_30_GBPS] = 2,
449         [IB_RATE_40_GBPS] = 1
450 };
451
452 #define IBA7322_LINKSPEED_SHIFT SYM_LSB(IBCStatusA_0, LinkSpeedActive)
453 #define IBA7322_LINKWIDTH_SHIFT SYM_LSB(IBCStatusA_0, LinkWidthActive)
454
455 /* link training states, from IBC */
456 #define IB_7322_LT_STATE_DISABLED        0x00
457 #define IB_7322_LT_STATE_LINKUP          0x01
458 #define IB_7322_LT_STATE_POLLACTIVE      0x02
459 #define IB_7322_LT_STATE_POLLQUIET       0x03
460 #define IB_7322_LT_STATE_SLEEPDELAY      0x04
461 #define IB_7322_LT_STATE_SLEEPQUIET      0x05
462 #define IB_7322_LT_STATE_CFGDEBOUNCE     0x08
463 #define IB_7322_LT_STATE_CFGRCVFCFG      0x09
464 #define IB_7322_LT_STATE_CFGWAITRMT      0x0a
465 #define IB_7322_LT_STATE_CFGIDLE         0x0b
466 #define IB_7322_LT_STATE_RECOVERRETRAIN  0x0c
467 #define IB_7322_LT_STATE_TXREVLANES      0x0d
468 #define IB_7322_LT_STATE_RECOVERWAITRMT  0x0e
469 #define IB_7322_LT_STATE_RECOVERIDLE     0x0f
470 #define IB_7322_LT_STATE_CFGENH          0x10
471 #define IB_7322_LT_STATE_CFGTEST         0x11
472
473 /* link state machine states from IBC */
474 #define IB_7322_L_STATE_DOWN             0x0
475 #define IB_7322_L_STATE_INIT             0x1
476 #define IB_7322_L_STATE_ARM              0x2
477 #define IB_7322_L_STATE_ACTIVE           0x3
478 #define IB_7322_L_STATE_ACT_DEFER        0x4
479
480 static const u8 qib_7322_physportstate[0x20] = {
481         [IB_7322_LT_STATE_DISABLED] = IB_PHYSPORTSTATE_DISABLED,
482         [IB_7322_LT_STATE_LINKUP] = IB_PHYSPORTSTATE_LINKUP,
483         [IB_7322_LT_STATE_POLLACTIVE] = IB_PHYSPORTSTATE_POLL,
484         [IB_7322_LT_STATE_POLLQUIET] = IB_PHYSPORTSTATE_POLL,
485         [IB_7322_LT_STATE_SLEEPDELAY] = IB_PHYSPORTSTATE_SLEEP,
486         [IB_7322_LT_STATE_SLEEPQUIET] = IB_PHYSPORTSTATE_SLEEP,
487         [IB_7322_LT_STATE_CFGDEBOUNCE] = IB_PHYSPORTSTATE_CFG_TRAIN,
488         [IB_7322_LT_STATE_CFGRCVFCFG] =
489                 IB_PHYSPORTSTATE_CFG_TRAIN,
490         [IB_7322_LT_STATE_CFGWAITRMT] =
491                 IB_PHYSPORTSTATE_CFG_TRAIN,
492         [IB_7322_LT_STATE_CFGIDLE] = IB_PHYSPORTSTATE_CFG_IDLE,
493         [IB_7322_LT_STATE_RECOVERRETRAIN] =
494                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
495         [IB_7322_LT_STATE_RECOVERWAITRMT] =
496                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
497         [IB_7322_LT_STATE_RECOVERIDLE] =
498                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
499         [IB_7322_LT_STATE_CFGENH] = IB_PHYSPORTSTATE_CFG_ENH,
500         [IB_7322_LT_STATE_CFGTEST] = IB_PHYSPORTSTATE_CFG_TRAIN,
501         [0x12] = IB_PHYSPORTSTATE_CFG_TRAIN,
502         [0x13] = IB_PHYSPORTSTATE_CFG_WAIT_ENH,
503         [0x14] = IB_PHYSPORTSTATE_CFG_TRAIN,
504         [0x15] = IB_PHYSPORTSTATE_CFG_TRAIN,
505         [0x16] = IB_PHYSPORTSTATE_CFG_TRAIN,
506         [0x17] = IB_PHYSPORTSTATE_CFG_TRAIN
507 };
508
509 struct qib_chip_specific {
510         u64 __iomem *cregbase;
511         u64 *cntrs;
512         spinlock_t rcvmod_lock; /* protect rcvctrl shadow changes */
513         spinlock_t gpio_lock; /* RMW of shadows/regs for ExtCtrl and GPIO */
514         u64 main_int_mask;      /* clear bits which have dedicated handlers */
515         u64 int_enable_mask;  /* for per port interrupts in single port mode */
516         u64 errormask;
517         u64 hwerrmask;
518         u64 gpio_out; /* shadow of kr_gpio_out, for rmw ops */
519         u64 gpio_mask; /* shadow the gpio mask register */
520         u64 extctrl; /* shadow the gpio output enable, etc... */
521         u32 ncntrs;
522         u32 nportcntrs;
523         u32 cntrnamelen;
524         u32 portcntrnamelen;
525         u32 numctxts;
526         u32 rcvegrcnt;
527         u32 updthresh; /* current AvailUpdThld */
528         u32 updthresh_dflt; /* default AvailUpdThld */
529         u32 r1;
530         int irq;
531         u32 num_msix_entries;
532         u32 sdmabufcnt;
533         u32 lastbuf_for_pio;
534         u32 stay_in_freeze;
535         u32 recovery_ports_initted;
536         struct msix_entry *msix_entries;
537         void  **msix_arg;
538         unsigned long *sendchkenable;
539         unsigned long *sendgrhchk;
540         unsigned long *sendibchk;
541         u32 rcvavail_timeout[18];
542         char emsgbuf[128]; /* for device error interrupt msg buffer */
543 };
544
545 /* Table of entries in "human readable" form Tx Emphasis. */
546 struct txdds_ent {
547         u8 amp;
548         u8 pre;
549         u8 main;
550         u8 post;
551 };
552
553 struct vendor_txdds_ent {
554         u8 oui[QSFP_VOUI_LEN];
555         u8 *partnum;
556         struct txdds_ent sdr;
557         struct txdds_ent ddr;
558         struct txdds_ent qdr;
559 };
560
561 static void write_tx_serdes_param(struct qib_pportdata *, struct txdds_ent *);
562
563 #define TXDDS_TABLE_SZ 16 /* number of entries per speed in onchip table */
564 #define TXDDS_EXTRA_SZ 13 /* number of extra tx settings entries */
565 #define TXDDS_MFG_SZ 2    /* number of mfg tx settings entries */
566 #define SERDES_CHANS 4 /* yes, it's obvious, but one less magic number */
567
568 #define H1_FORCE_VAL 8
569 #define H1_FORCE_QME 1 /*  may be overridden via setup_txselect() */
570 #define H1_FORCE_QMH 7 /*  may be overridden via setup_txselect() */
571
572 /* The static and dynamic registers are paired, and the pairs indexed by spd */
573 #define krp_static_adapt_dis(spd) (KREG_IBPORT_IDX(ADAPT_DISABLE_STATIC_SDR) \
574         + ((spd) * 2))
575
576 #define QDR_DFE_DISABLE_DELAY 4000 /* msec after LINKUP */
577 #define QDR_STATIC_ADAPT_DOWN 0xf0f0f0f0ULL /* link down, H1-H4 QDR adapts */
578 #define QDR_STATIC_ADAPT_DOWN_R1 0ULL /* r1 link down, H1-H4 QDR adapts */
579 #define QDR_STATIC_ADAPT_INIT 0xffffffffffULL /* up, disable H0,H1-8, LE */
580 #define QDR_STATIC_ADAPT_INIT_R1 0xf0ffffffffULL /* r1 up, disable H0,H1-8 */
581
582 struct qib_chippport_specific {
583         u64 __iomem *kpregbase;
584         u64 __iomem *cpregbase;
585         u64 *portcntrs;
586         struct qib_pportdata *ppd;
587         wait_queue_head_t autoneg_wait;
588         struct delayed_work autoneg_work;
589         struct delayed_work ipg_work;
590         struct timer_list chase_timer;
591         /*
592          * these 5 fields are used to establish deltas for IB symbol
593          * errors and linkrecovery errors.  They can be reported on
594          * some chips during link negotiation prior to INIT, and with
595          * DDR when faking DDR negotiations with non-IBTA switches.
596          * The chip counters are adjusted at driver unload if there is
597          * a non-zero delta.
598          */
599         u64 ibdeltainprog;
600         u64 ibsymdelta;
601         u64 ibsymsnap;
602         u64 iblnkerrdelta;
603         u64 iblnkerrsnap;
604         u64 iblnkdownsnap;
605         u64 iblnkdowndelta;
606         u64 ibmalfdelta;
607         u64 ibmalfsnap;
608         u64 ibcctrl_a; /* krp_ibcctrl_a shadow */
609         u64 ibcctrl_b; /* krp_ibcctrl_b shadow */
610         u64 qdr_dfe_time;
611         u64 chase_end;
612         u32 autoneg_tries;
613         u32 recovery_init;
614         u32 qdr_dfe_on;
615         u32 qdr_reforce;
616         /*
617          * Per-bay per-channel rcv QMH H1 values and Tx values for QDR.
618          * entry zero is unused, to simplify indexing
619          */
620         u8 h1_val;
621         u8 no_eep;  /* txselect table index to use if no qsfp info */
622         u8 ipg_tries;
623         u8 ibmalfusesnap;
624         struct qib_qsfp_data qsfp_data;
625         char epmsgbuf[192]; /* for port error interrupt msg buffer */
626         u8 bounced;
627 };
628
629 static struct {
630         const char *name;
631         irq_handler_t handler;
632         int lsb;
633         int port; /* 0 if not port-specific, else port # */
634 } irq_table[] = {
635         { QIB_DRV_NAME, qib_7322intr, -1, 0 },
636         { QIB_DRV_NAME " (buf avail)", qib_7322bufavail,
637                 SYM_LSB(IntStatus, SendBufAvail), 0 },
638         { QIB_DRV_NAME " (sdma 0)", sdma_intr,
639                 SYM_LSB(IntStatus, SDmaInt_0), 1 },
640         { QIB_DRV_NAME " (sdma 1)", sdma_intr,
641                 SYM_LSB(IntStatus, SDmaInt_1), 2 },
642         { QIB_DRV_NAME " (sdmaI 0)", sdma_idle_intr,
643                 SYM_LSB(IntStatus, SDmaIdleInt_0), 1 },
644         { QIB_DRV_NAME " (sdmaI 1)", sdma_idle_intr,
645                 SYM_LSB(IntStatus, SDmaIdleInt_1), 2 },
646         { QIB_DRV_NAME " (sdmaP 0)", sdma_progress_intr,
647                 SYM_LSB(IntStatus, SDmaProgressInt_0), 1 },
648         { QIB_DRV_NAME " (sdmaP 1)", sdma_progress_intr,
649                 SYM_LSB(IntStatus, SDmaProgressInt_1), 2 },
650         { QIB_DRV_NAME " (sdmaC 0)", sdma_cleanup_intr,
651                 SYM_LSB(IntStatus, SDmaCleanupDone_0), 1 },
652         { QIB_DRV_NAME " (sdmaC 1)", sdma_cleanup_intr,
653                 SYM_LSB(IntStatus, SDmaCleanupDone_1), 2 },
654 };
655
656 /* ibcctrl bits */
657 #define QLOGIC_IB_IBCC_LINKINITCMD_DISABLE 1
658 /* cycle through TS1/TS2 till OK */
659 #define QLOGIC_IB_IBCC_LINKINITCMD_POLL 2
660 /* wait for TS1, then go on */
661 #define QLOGIC_IB_IBCC_LINKINITCMD_SLEEP 3
662 #define QLOGIC_IB_IBCC_LINKINITCMD_SHIFT 16
663
664 #define QLOGIC_IB_IBCC_LINKCMD_DOWN 1           /* move to 0x11 */
665 #define QLOGIC_IB_IBCC_LINKCMD_ARMED 2          /* move to 0x21 */
666 #define QLOGIC_IB_IBCC_LINKCMD_ACTIVE 3 /* move to 0x31 */
667
668 #define BLOB_7322_IBCHG 0x101
669
670 static inline void qib_write_kreg(const struct qib_devdata *dd,
671                                   const u32 regno, u64 value);
672 static inline u32 qib_read_kreg32(const struct qib_devdata *, const u32);
673 static void write_7322_initregs(struct qib_devdata *);
674 static void write_7322_init_portregs(struct qib_pportdata *);
675 static void setup_7322_link_recovery(struct qib_pportdata *, u32);
676 static void check_7322_rxe_status(struct qib_pportdata *);
677 static u32 __iomem *qib_7322_getsendbuf(struct qib_pportdata *, u64, u32 *);
678
679 /**
680  * qib_read_ureg32 - read 32-bit virtualized per-context register
681  * @dd: device
682  * @regno: register number
683  * @ctxt: context number
684  *
685  * Return the contents of a register that is virtualized to be per context.
686  * Returns -1 on errors (not distinguishable from valid contents at
687  * runtime; we may add a separate error variable at some point).
688  */
689 static inline u32 qib_read_ureg32(const struct qib_devdata *dd,
690                                   enum qib_ureg regno, int ctxt)
691 {
692         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
693                 return 0;
694         return readl(regno + (u64 __iomem *)(
695                 (dd->ureg_align * ctxt) + (dd->userbase ?
696                  (char __iomem *)dd->userbase :
697                  (char __iomem *)dd->kregbase + dd->uregbase)));
698 }
699
700 /**
701  * qib_read_ureg - read virtualized per-context register
702  * @dd: device
703  * @regno: register number
704  * @ctxt: context number
705  *
706  * Return the contents of a register that is virtualized to be per context.
707  * Returns -1 on errors (not distinguishable from valid contents at
708  * runtime; we may add a separate error variable at some point).
709  */
710 static inline u64 qib_read_ureg(const struct qib_devdata *dd,
711                                 enum qib_ureg regno, int ctxt)
712 {
713
714         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
715                 return 0;
716         return readq(regno + (u64 __iomem *)(
717                 (dd->ureg_align * ctxt) + (dd->userbase ?
718                  (char __iomem *)dd->userbase :
719                  (char __iomem *)dd->kregbase + dd->uregbase)));
720 }
721
722 /**
723  * qib_write_ureg - write virtualized per-context register
724  * @dd: device
725  * @regno: register number
726  * @value: value
727  * @ctxt: context
728  *
729  * Write the contents of a register that is virtualized to be per context.
730  */
731 static inline void qib_write_ureg(const struct qib_devdata *dd,
732                                   enum qib_ureg regno, u64 value, int ctxt)
733 {
734         u64 __iomem *ubase;
735         if (dd->userbase)
736                 ubase = (u64 __iomem *)
737                         ((char __iomem *) dd->userbase +
738                          dd->ureg_align * ctxt);
739         else
740                 ubase = (u64 __iomem *)
741                         (dd->uregbase +
742                          (char __iomem *) dd->kregbase +
743                          dd->ureg_align * ctxt);
744
745         if (dd->kregbase && (dd->flags & QIB_PRESENT))
746                 writeq(value, &ubase[regno]);
747 }
748
749 static inline u32 qib_read_kreg32(const struct qib_devdata *dd,
750                                   const u32 regno)
751 {
752         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
753                 return -1;
754         return readl((u32 __iomem *) &dd->kregbase[regno]);
755 }
756
757 static inline u64 qib_read_kreg64(const struct qib_devdata *dd,
758                                   const u32 regno)
759 {
760         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
761                 return -1;
762         return readq(&dd->kregbase[regno]);
763 }
764
765 static inline void qib_write_kreg(const struct qib_devdata *dd,
766                                   const u32 regno, u64 value)
767 {
768         if (dd->kregbase && (dd->flags & QIB_PRESENT))
769                 writeq(value, &dd->kregbase[regno]);
770 }
771
772 /*
773  * not many sanity checks for the port-specific kernel register routines,
774  * since they are only used when it's known to be safe.
775 */
776 static inline u64 qib_read_kreg_port(const struct qib_pportdata *ppd,
777                                      const u16 regno)
778 {
779         if (!ppd->cpspec->kpregbase || !(ppd->dd->flags & QIB_PRESENT))
780                 return 0ULL;
781         return readq(&ppd->cpspec->kpregbase[regno]);
782 }
783
784 static inline void qib_write_kreg_port(const struct qib_pportdata *ppd,
785                                        const u16 regno, u64 value)
786 {
787         if (ppd->cpspec && ppd->dd && ppd->cpspec->kpregbase &&
788             (ppd->dd->flags & QIB_PRESENT))
789                 writeq(value, &ppd->cpspec->kpregbase[regno]);
790 }
791
792 /**
793  * qib_write_kreg_ctxt - write a device's per-ctxt 64-bit kernel register
794  * @dd: the qlogic_ib device
795  * @regno: the register number to write
796  * @ctxt: the context containing the register
797  * @value: the value to write
798  */
799 static inline void qib_write_kreg_ctxt(const struct qib_devdata *dd,
800                                        const u16 regno, unsigned ctxt,
801                                        u64 value)
802 {
803         qib_write_kreg(dd, regno + ctxt, value);
804 }
805
806 static inline u64 read_7322_creg(const struct qib_devdata *dd, u16 regno)
807 {
808         if (!dd->cspec->cregbase || !(dd->flags & QIB_PRESENT))
809                 return 0;
810         return readq(&dd->cspec->cregbase[regno]);
811
812
813 }
814
815 static inline u32 read_7322_creg32(const struct qib_devdata *dd, u16 regno)
816 {
817         if (!dd->cspec->cregbase || !(dd->flags & QIB_PRESENT))
818                 return 0;
819         return readl(&dd->cspec->cregbase[regno]);
820
821
822 }
823
824 static inline void write_7322_creg_port(const struct qib_pportdata *ppd,
825                                         u16 regno, u64 value)
826 {
827         if (ppd->cpspec && ppd->cpspec->cpregbase &&
828             (ppd->dd->flags & QIB_PRESENT))
829                 writeq(value, &ppd->cpspec->cpregbase[regno]);
830 }
831
832 static inline u64 read_7322_creg_port(const struct qib_pportdata *ppd,
833                                       u16 regno)
834 {
835         if (!ppd->cpspec || !ppd->cpspec->cpregbase ||
836             !(ppd->dd->flags & QIB_PRESENT))
837                 return 0;
838         return readq(&ppd->cpspec->cpregbase[regno]);
839 }
840
841 static inline u32 read_7322_creg32_port(const struct qib_pportdata *ppd,
842                                         u16 regno)
843 {
844         if (!ppd->cpspec || !ppd->cpspec->cpregbase ||
845             !(ppd->dd->flags & QIB_PRESENT))
846                 return 0;
847         return readl(&ppd->cpspec->cpregbase[regno]);
848 }
849
850 /* bits in Control register */
851 #define QLOGIC_IB_C_RESET SYM_MASK(Control, SyncReset)
852 #define QLOGIC_IB_C_SDMAFETCHPRIOEN SYM_MASK(Control, SDmaDescFetchPriorityEn)
853
854 /* bits in general interrupt regs */
855 #define QIB_I_RCVURG_LSB SYM_LSB(IntMask, RcvUrg0IntMask)
856 #define QIB_I_RCVURG_RMASK MASK_ACROSS(0, 17)
857 #define QIB_I_RCVURG_MASK (QIB_I_RCVURG_RMASK << QIB_I_RCVURG_LSB)
858 #define QIB_I_RCVAVAIL_LSB SYM_LSB(IntMask, RcvAvail0IntMask)
859 #define QIB_I_RCVAVAIL_RMASK MASK_ACROSS(0, 17)
860 #define QIB_I_RCVAVAIL_MASK (QIB_I_RCVAVAIL_RMASK << QIB_I_RCVAVAIL_LSB)
861 #define QIB_I_C_ERROR INT_MASK(Err)
862
863 #define QIB_I_SPIOSENT (INT_MASK_P(SendDone, 0) | INT_MASK_P(SendDone, 1))
864 #define QIB_I_SPIOBUFAVAIL INT_MASK(SendBufAvail)
865 #define QIB_I_GPIO INT_MASK(AssertGPIO)
866 #define QIB_I_P_SDMAINT(pidx) \
867         (INT_MASK_P(SDma, pidx) | INT_MASK_P(SDmaIdle, pidx) | \
868          INT_MASK_P(SDmaProgress, pidx) | \
869          INT_MASK_PM(SDmaCleanupDone, pidx))
870
871 /* Interrupt bits that are "per port" */
872 #define QIB_I_P_BITSEXTANT(pidx) \
873         (INT_MASK_P(Err, pidx) | INT_MASK_P(SendDone, pidx) | \
874         INT_MASK_P(SDma, pidx) | INT_MASK_P(SDmaIdle, pidx) | \
875         INT_MASK_P(SDmaProgress, pidx) | \
876         INT_MASK_PM(SDmaCleanupDone, pidx))
877
878 /* Interrupt bits that are common to a device */
879 /* currently unused: QIB_I_SPIOSENT */
880 #define QIB_I_C_BITSEXTANT \
881         (QIB_I_RCVURG_MASK | QIB_I_RCVAVAIL_MASK | \
882         QIB_I_SPIOSENT | \
883         QIB_I_C_ERROR | QIB_I_SPIOBUFAVAIL | QIB_I_GPIO)
884
885 #define QIB_I_BITSEXTANT (QIB_I_C_BITSEXTANT | \
886         QIB_I_P_BITSEXTANT(0) | QIB_I_P_BITSEXTANT(1))
887
888 /*
889  * Error bits that are "per port".
890  */
891 #define QIB_E_P_IBSTATUSCHANGED ERR_MASK_N(IBStatusChanged)
892 #define QIB_E_P_SHDR ERR_MASK_N(SHeadersErr)
893 #define QIB_E_P_VL15_BUF_MISUSE ERR_MASK_N(VL15BufMisuseErr)
894 #define QIB_E_P_SND_BUF_MISUSE ERR_MASK_N(SendBufMisuseErr)
895 #define QIB_E_P_SUNSUPVL ERR_MASK_N(SendUnsupportedVLErr)
896 #define QIB_E_P_SUNEXP_PKTNUM ERR_MASK_N(SendUnexpectedPktNumErr)
897 #define QIB_E_P_SDROP_DATA ERR_MASK_N(SendDroppedDataPktErr)
898 #define QIB_E_P_SDROP_SMP ERR_MASK_N(SendDroppedSmpPktErr)
899 #define QIB_E_P_SPKTLEN ERR_MASK_N(SendPktLenErr)
900 #define QIB_E_P_SUNDERRUN ERR_MASK_N(SendUnderRunErr)
901 #define QIB_E_P_SMAXPKTLEN ERR_MASK_N(SendMaxPktLenErr)
902 #define QIB_E_P_SMINPKTLEN ERR_MASK_N(SendMinPktLenErr)
903 #define QIB_E_P_RIBLOSTLINK ERR_MASK_N(RcvIBLostLinkErr)
904 #define QIB_E_P_RHDR ERR_MASK_N(RcvHdrErr)
905 #define QIB_E_P_RHDRLEN ERR_MASK_N(RcvHdrLenErr)
906 #define QIB_E_P_RBADTID ERR_MASK_N(RcvBadTidErr)
907 #define QIB_E_P_RBADVERSION ERR_MASK_N(RcvBadVersionErr)
908 #define QIB_E_P_RIBFLOW ERR_MASK_N(RcvIBFlowErr)
909 #define QIB_E_P_REBP ERR_MASK_N(RcvEBPErr)
910 #define QIB_E_P_RUNSUPVL ERR_MASK_N(RcvUnsupportedVLErr)
911 #define QIB_E_P_RUNEXPCHAR ERR_MASK_N(RcvUnexpectedCharErr)
912 #define QIB_E_P_RSHORTPKTLEN ERR_MASK_N(RcvShortPktLenErr)
913 #define QIB_E_P_RLONGPKTLEN ERR_MASK_N(RcvLongPktLenErr)
914 #define QIB_E_P_RMAXPKTLEN ERR_MASK_N(RcvMaxPktLenErr)
915 #define QIB_E_P_RMINPKTLEN ERR_MASK_N(RcvMinPktLenErr)
916 #define QIB_E_P_RICRC ERR_MASK_N(RcvICRCErr)
917 #define QIB_E_P_RVCRC ERR_MASK_N(RcvVCRCErr)
918 #define QIB_E_P_RFORMATERR ERR_MASK_N(RcvFormatErr)
919
920 #define QIB_E_P_SDMA1STDESC ERR_MASK_N(SDma1stDescErr)
921 #define QIB_E_P_SDMABASE ERR_MASK_N(SDmaBaseErr)
922 #define QIB_E_P_SDMADESCADDRMISALIGN ERR_MASK_N(SDmaDescAddrMisalignErr)
923 #define QIB_E_P_SDMADWEN ERR_MASK_N(SDmaDwEnErr)
924 #define QIB_E_P_SDMAGENMISMATCH ERR_MASK_N(SDmaGenMismatchErr)
925 #define QIB_E_P_SDMAHALT ERR_MASK_N(SDmaHaltErr)
926 #define QIB_E_P_SDMAMISSINGDW ERR_MASK_N(SDmaMissingDwErr)
927 #define QIB_E_P_SDMAOUTOFBOUND ERR_MASK_N(SDmaOutOfBoundErr)
928 #define QIB_E_P_SDMARPYTAG ERR_MASK_N(SDmaRpyTagErr)
929 #define QIB_E_P_SDMATAILOUTOFBOUND ERR_MASK_N(SDmaTailOutOfBoundErr)
930 #define QIB_E_P_SDMAUNEXPDATA ERR_MASK_N(SDmaUnexpDataErr)
931
932 /* Error bits that are common to a device */
933 #define QIB_E_RESET ERR_MASK(ResetNegated)
934 #define QIB_E_HARDWARE ERR_MASK(HardwareErr)
935 #define QIB_E_INVALIDADDR ERR_MASK(InvalidAddrErr)
936
937
938 /*
939  * Per chip (rather than per-port) errors.  Most either do
940  * nothing but trigger a print (because they self-recover, or
941  * always occur in tandem with other errors that handle the
942  * issue), or because they indicate errors with no recovery,
943  * but we want to know that they happened.
944  */
945 #define QIB_E_SBUF_VL15_MISUSE ERR_MASK(SBufVL15MisUseErr)
946 #define QIB_E_BADEEP ERR_MASK(InvalidEEPCmd)
947 #define QIB_E_VLMISMATCH ERR_MASK(SendVLMismatchErr)
948 #define QIB_E_ARMLAUNCH ERR_MASK(SendArmLaunchErr)
949 #define QIB_E_SPCLTRIG ERR_MASK(SendSpecialTriggerErr)
950 #define QIB_E_RRCVHDRFULL ERR_MASK(RcvHdrFullErr)
951 #define QIB_E_RRCVEGRFULL ERR_MASK(RcvEgrFullErr)
952 #define QIB_E_RCVCTXTSHARE ERR_MASK(RcvContextShareErr)
953
954 /* SDMA chip errors (not per port)
955  * QIB_E_SDMA_BUF_DUP needs no special handling, because we will also get
956  * the SDMAHALT error immediately, so we just print the dup error via the
957  * E_AUTO mechanism.  This is true of most of the per-port fatal errors
958  * as well, but since this is port-independent, by definition, it's
959  * handled a bit differently.  SDMA_VL15 and SDMA_WRONG_PORT are per
960  * packet send errors, and so are handled in the same manner as other
961  * per-packet errors.
962  */
963 #define QIB_E_SDMA_VL15 ERR_MASK(SDmaVL15Err)
964 #define QIB_E_SDMA_WRONG_PORT ERR_MASK(SDmaWrongPortErr)
965 #define QIB_E_SDMA_BUF_DUP ERR_MASK(SDmaBufMaskDuplicateErr)
966
967 /*
968  * Below functionally equivalent to legacy QLOGIC_IB_E_PKTERRS
969  * it is used to print "common" packet errors.
970  */
971 #define QIB_E_P_PKTERRS (QIB_E_P_SPKTLEN |\
972         QIB_E_P_SDROP_DATA | QIB_E_P_RVCRC |\
973         QIB_E_P_RICRC | QIB_E_P_RSHORTPKTLEN |\
974         QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SHDR | \
975         QIB_E_P_REBP)
976
977 /* Error Bits that Packet-related (Receive, per-port) */
978 #define QIB_E_P_RPKTERRS (\
979         QIB_E_P_RHDRLEN | QIB_E_P_RBADTID | \
980         QIB_E_P_RBADVERSION | QIB_E_P_RHDR | \
981         QIB_E_P_RLONGPKTLEN | QIB_E_P_RSHORTPKTLEN |\
982         QIB_E_P_RMAXPKTLEN | QIB_E_P_RMINPKTLEN | \
983         QIB_E_P_RFORMATERR | QIB_E_P_RUNSUPVL | \
984         QIB_E_P_RUNEXPCHAR | QIB_E_P_RIBFLOW | QIB_E_P_REBP)
985
986 /*
987  * Error bits that are Send-related (per port)
988  * (ARMLAUNCH excluded from E_SPKTERRS because it gets special handling).
989  * All of these potentially need to have a buffer disarmed
990  */
991 #define QIB_E_P_SPKTERRS (\
992         QIB_E_P_SUNEXP_PKTNUM |\
993         QIB_E_P_SDROP_DATA | QIB_E_P_SDROP_SMP |\
994         QIB_E_P_SMAXPKTLEN |\
995         QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SHDR | \
996         QIB_E_P_SMINPKTLEN | QIB_E_P_SPKTLEN | \
997         QIB_E_P_SND_BUF_MISUSE | QIB_E_P_SUNSUPVL)
998
999 #define QIB_E_SPKTERRS ( \
1000                 QIB_E_SBUF_VL15_MISUSE | QIB_E_VLMISMATCH | \
1001                 ERR_MASK_N(SendUnsupportedVLErr) |                      \
1002                 QIB_E_SPCLTRIG | QIB_E_SDMA_VL15 | QIB_E_SDMA_WRONG_PORT)
1003
1004 #define QIB_E_P_SDMAERRS ( \
1005         QIB_E_P_SDMAHALT | \
1006         QIB_E_P_SDMADESCADDRMISALIGN | \
1007         QIB_E_P_SDMAUNEXPDATA | \
1008         QIB_E_P_SDMAMISSINGDW | \
1009         QIB_E_P_SDMADWEN | \
1010         QIB_E_P_SDMARPYTAG | \
1011         QIB_E_P_SDMA1STDESC | \
1012         QIB_E_P_SDMABASE | \
1013         QIB_E_P_SDMATAILOUTOFBOUND | \
1014         QIB_E_P_SDMAOUTOFBOUND | \
1015         QIB_E_P_SDMAGENMISMATCH)
1016
1017 /*
1018  * This sets some bits more than once, but makes it more obvious which
1019  * bits are not handled under other categories, and the repeat definition
1020  * is not a problem.
1021  */
1022 #define QIB_E_P_BITSEXTANT ( \
1023         QIB_E_P_SPKTERRS | QIB_E_P_PKTERRS | QIB_E_P_RPKTERRS | \
1024         QIB_E_P_RIBLOSTLINK | QIB_E_P_IBSTATUSCHANGED | \
1025         QIB_E_P_SND_BUF_MISUSE | QIB_E_P_SUNDERRUN | \
1026         QIB_E_P_SHDR | QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SDMAERRS \
1027         )
1028
1029 /*
1030  * These are errors that can occur when the link
1031  * changes state while a packet is being sent or received.  This doesn't
1032  * cover things like EBP or VCRC that can be the result of a sending
1033  * having the link change state, so we receive a "known bad" packet.
1034  * All of these are "per port", so renamed:
1035  */
1036 #define QIB_E_P_LINK_PKTERRS (\
1037         QIB_E_P_SDROP_DATA | QIB_E_P_SDROP_SMP |\
1038         QIB_E_P_SMINPKTLEN | QIB_E_P_SPKTLEN |\
1039         QIB_E_P_RSHORTPKTLEN | QIB_E_P_RMINPKTLEN |\
1040         QIB_E_P_RUNEXPCHAR)
1041
1042 /*
1043  * This sets some bits more than once, but makes it more obvious which
1044  * bits are not handled under other categories (such as QIB_E_SPKTERRS),
1045  * and the repeat definition is not a problem.
1046  */
1047 #define QIB_E_C_BITSEXTANT (\
1048         QIB_E_HARDWARE | QIB_E_INVALIDADDR | QIB_E_BADEEP |\
1049         QIB_E_ARMLAUNCH | QIB_E_VLMISMATCH | QIB_E_RRCVHDRFULL |\
1050         QIB_E_RRCVEGRFULL | QIB_E_RESET | QIB_E_SBUF_VL15_MISUSE)
1051
1052 /* Likewise Neuter E_SPKT_ERRS_IGNORE */
1053 #define E_SPKT_ERRS_IGNORE 0
1054
1055 #define QIB_EXTS_MEMBIST_DISABLED \
1056         SYM_MASK(EXTStatus, MemBISTDisabled)
1057 #define QIB_EXTS_MEMBIST_ENDTEST \
1058         SYM_MASK(EXTStatus, MemBISTEndTest)
1059
1060 #define QIB_E_SPIOARMLAUNCH \
1061         ERR_MASK(SendArmLaunchErr)
1062
1063 #define IBA7322_IBCC_LINKINITCMD_MASK SYM_RMASK(IBCCtrlA_0, LinkInitCmd)
1064 #define IBA7322_IBCC_LINKCMD_SHIFT SYM_LSB(IBCCtrlA_0, LinkCmd)
1065
1066 /*
1067  * IBTA_1_2 is set when multiple speeds are enabled (normal),
1068  * and also if forced QDR (only QDR enabled).  It's enabled for the
1069  * forced QDR case so that scrambling will be enabled by the TS3
1070  * exchange, when supported by both sides of the link.
1071  */
1072 #define IBA7322_IBC_IBTA_1_2_MASK SYM_MASK(IBCCtrlB_0, IB_ENHANCED_MODE)
1073 #define IBA7322_IBC_MAX_SPEED_MASK SYM_MASK(IBCCtrlB_0, SD_SPEED)
1074 #define IBA7322_IBC_SPEED_QDR SYM_MASK(IBCCtrlB_0, SD_SPEED_QDR)
1075 #define IBA7322_IBC_SPEED_DDR SYM_MASK(IBCCtrlB_0, SD_SPEED_DDR)
1076 #define IBA7322_IBC_SPEED_SDR SYM_MASK(IBCCtrlB_0, SD_SPEED_SDR)
1077 #define IBA7322_IBC_SPEED_MASK (SYM_MASK(IBCCtrlB_0, SD_SPEED_SDR) | \
1078         SYM_MASK(IBCCtrlB_0, SD_SPEED_DDR) | SYM_MASK(IBCCtrlB_0, SD_SPEED_QDR))
1079 #define IBA7322_IBC_SPEED_LSB SYM_LSB(IBCCtrlB_0, SD_SPEED_SDR)
1080
1081 #define IBA7322_LEDBLINK_OFF_SHIFT SYM_LSB(RcvPktLEDCnt_0, OFFperiod)
1082 #define IBA7322_LEDBLINK_ON_SHIFT SYM_LSB(RcvPktLEDCnt_0, ONperiod)
1083
1084 #define IBA7322_IBC_WIDTH_AUTONEG SYM_MASK(IBCCtrlB_0, IB_NUM_CHANNELS)
1085 #define IBA7322_IBC_WIDTH_4X_ONLY (1<<SYM_LSB(IBCCtrlB_0, IB_NUM_CHANNELS))
1086 #define IBA7322_IBC_WIDTH_1X_ONLY (0<<SYM_LSB(IBCCtrlB_0, IB_NUM_CHANNELS))
1087
1088 #define IBA7322_IBC_RXPOL_MASK SYM_MASK(IBCCtrlB_0, IB_POLARITY_REV_SUPP)
1089 #define IBA7322_IBC_RXPOL_LSB SYM_LSB(IBCCtrlB_0, IB_POLARITY_REV_SUPP)
1090 #define IBA7322_IBC_HRTBT_MASK (SYM_MASK(IBCCtrlB_0, HRTBT_AUTO) | \
1091         SYM_MASK(IBCCtrlB_0, HRTBT_ENB))
1092 #define IBA7322_IBC_HRTBT_RMASK (IBA7322_IBC_HRTBT_MASK >> \
1093         SYM_LSB(IBCCtrlB_0, HRTBT_ENB))
1094 #define IBA7322_IBC_HRTBT_LSB SYM_LSB(IBCCtrlB_0, HRTBT_ENB)
1095
1096 #define IBA7322_REDIRECT_VEC_PER_REG 12
1097
1098 #define IBA7322_SENDCHK_PKEY SYM_MASK(SendCheckControl_0, PKey_En)
1099 #define IBA7322_SENDCHK_BTHQP SYM_MASK(SendCheckControl_0, BTHQP_En)
1100 #define IBA7322_SENDCHK_SLID SYM_MASK(SendCheckControl_0, SLID_En)
1101 #define IBA7322_SENDCHK_RAW_IPV6 SYM_MASK(SendCheckControl_0, RawIPV6_En)
1102 #define IBA7322_SENDCHK_MINSZ SYM_MASK(SendCheckControl_0, PacketTooSmall_En)
1103
1104 #define AUTONEG_TRIES 3 /* sequential retries to negotiate DDR */
1105
1106 #define HWE_AUTO(fldname) { .mask = SYM_MASK(HwErrMask, fldname##Mask), \
1107         .msg = #fldname }
1108 #define HWE_AUTO_P(fldname, port) { .mask = SYM_MASK(HwErrMask, \
1109         fldname##Mask##_##port), .msg = #fldname }
1110 static const struct qib_hwerror_msgs qib_7322_hwerror_msgs[] = {
1111         HWE_AUTO_P(IBSerdesPClkNotDetect, 1),
1112         HWE_AUTO_P(IBSerdesPClkNotDetect, 0),
1113         HWE_AUTO(PCIESerdesPClkNotDetect),
1114         HWE_AUTO(PowerOnBISTFailed),
1115         HWE_AUTO(TempsenseTholdReached),
1116         HWE_AUTO(MemoryErr),
1117         HWE_AUTO(PCIeBusParityErr),
1118         HWE_AUTO(PcieCplTimeout),
1119         HWE_AUTO(PciePoisonedTLP),
1120         HWE_AUTO_P(SDmaMemReadErr, 1),
1121         HWE_AUTO_P(SDmaMemReadErr, 0),
1122         HWE_AUTO_P(IBCBusFromSPCParityErr, 1),
1123         HWE_AUTO_P(IBCBusToSPCParityErr, 1),
1124         HWE_AUTO_P(IBCBusFromSPCParityErr, 0),
1125         HWE_AUTO(statusValidNoEop),
1126         HWE_AUTO(LATriggered),
1127         { .mask = 0 }
1128 };
1129
1130 #define E_AUTO(fldname) { .mask = SYM_MASK(ErrMask, fldname##Mask), \
1131         .msg = #fldname }
1132 #define E_P_AUTO(fldname) { .mask = SYM_MASK(ErrMask_0, fldname##Mask), \
1133         .msg = #fldname }
1134 static const struct qib_hwerror_msgs qib_7322error_msgs[] = {
1135         E_AUTO(ResetNegated),
1136         E_AUTO(HardwareErr),
1137         E_AUTO(InvalidAddrErr),
1138         E_AUTO(SDmaVL15Err),
1139         E_AUTO(SBufVL15MisUseErr),
1140         E_AUTO(InvalidEEPCmd),
1141         E_AUTO(RcvContextShareErr),
1142         E_AUTO(SendVLMismatchErr),
1143         E_AUTO(SendArmLaunchErr),
1144         E_AUTO(SendSpecialTriggerErr),
1145         E_AUTO(SDmaWrongPortErr),
1146         E_AUTO(SDmaBufMaskDuplicateErr),
1147         E_AUTO(RcvHdrFullErr),
1148         E_AUTO(RcvEgrFullErr),
1149         { .mask = 0 }
1150 };
1151
1152 static const struct  qib_hwerror_msgs qib_7322p_error_msgs[] = {
1153         E_P_AUTO(IBStatusChanged),
1154         E_P_AUTO(SHeadersErr),
1155         E_P_AUTO(VL15BufMisuseErr),
1156         /*
1157          * SDmaHaltErr is not really an error, make it clearer;
1158          */
1159         {.mask = SYM_MASK(ErrMask_0, SDmaHaltErrMask), .msg = "SDmaHalted"},
1160         E_P_AUTO(SDmaDescAddrMisalignErr),
1161         E_P_AUTO(SDmaUnexpDataErr),
1162         E_P_AUTO(SDmaMissingDwErr),
1163         E_P_AUTO(SDmaDwEnErr),
1164         E_P_AUTO(SDmaRpyTagErr),
1165         E_P_AUTO(SDma1stDescErr),
1166         E_P_AUTO(SDmaBaseErr),
1167         E_P_AUTO(SDmaTailOutOfBoundErr),
1168         E_P_AUTO(SDmaOutOfBoundErr),
1169         E_P_AUTO(SDmaGenMismatchErr),
1170         E_P_AUTO(SendBufMisuseErr),
1171         E_P_AUTO(SendUnsupportedVLErr),
1172         E_P_AUTO(SendUnexpectedPktNumErr),
1173         E_P_AUTO(SendDroppedDataPktErr),
1174         E_P_AUTO(SendDroppedSmpPktErr),
1175         E_P_AUTO(SendPktLenErr),
1176         E_P_AUTO(SendUnderRunErr),
1177         E_P_AUTO(SendMaxPktLenErr),
1178         E_P_AUTO(SendMinPktLenErr),
1179         E_P_AUTO(RcvIBLostLinkErr),
1180         E_P_AUTO(RcvHdrErr),
1181         E_P_AUTO(RcvHdrLenErr),
1182         E_P_AUTO(RcvBadTidErr),
1183         E_P_AUTO(RcvBadVersionErr),
1184         E_P_AUTO(RcvIBFlowErr),
1185         E_P_AUTO(RcvEBPErr),
1186         E_P_AUTO(RcvUnsupportedVLErr),
1187         E_P_AUTO(RcvUnexpectedCharErr),
1188         E_P_AUTO(RcvShortPktLenErr),
1189         E_P_AUTO(RcvLongPktLenErr),
1190         E_P_AUTO(RcvMaxPktLenErr),
1191         E_P_AUTO(RcvMinPktLenErr),
1192         E_P_AUTO(RcvICRCErr),
1193         E_P_AUTO(RcvVCRCErr),
1194         E_P_AUTO(RcvFormatErr),
1195         { .mask = 0 }
1196 };
1197
1198 /*
1199  * Below generates "auto-message" for interrupts not specific to any port or
1200  * context
1201  */
1202 #define INTR_AUTO(fldname) { .mask = SYM_MASK(IntMask, fldname##Mask), \
1203         .msg = #fldname }
1204 /* Below generates "auto-message" for interrupts specific to a port */
1205 #define INTR_AUTO_P(fldname) { .mask = MASK_ACROSS(\
1206         SYM_LSB(IntMask, fldname##Mask##_0), \
1207         SYM_LSB(IntMask, fldname##Mask##_1)), \
1208         .msg = #fldname "_P" }
1209 /* For some reason, the SerDesTrimDone bits are reversed */
1210 #define INTR_AUTO_PI(fldname) { .mask = MASK_ACROSS(\
1211         SYM_LSB(IntMask, fldname##Mask##_1), \
1212         SYM_LSB(IntMask, fldname##Mask##_0)), \
1213         .msg = #fldname "_P" }
1214 /*
1215  * Below generates "auto-message" for interrupts specific to a context,
1216  * with ctxt-number appended
1217  */
1218 #define INTR_AUTO_C(fldname) { .mask = MASK_ACROSS(\
1219         SYM_LSB(IntMask, fldname##0IntMask), \
1220         SYM_LSB(IntMask, fldname##17IntMask)), \
1221         .msg = #fldname "_C"}
1222
1223 static const struct  qib_hwerror_msgs qib_7322_intr_msgs[] = {
1224         INTR_AUTO_P(SDmaInt),
1225         INTR_AUTO_P(SDmaProgressInt),
1226         INTR_AUTO_P(SDmaIdleInt),
1227         INTR_AUTO_P(SDmaCleanupDone),
1228         INTR_AUTO_C(RcvUrg),
1229         INTR_AUTO_P(ErrInt),
1230         INTR_AUTO(ErrInt),      /* non-port-specific errs */
1231         INTR_AUTO(AssertGPIOInt),
1232         INTR_AUTO_P(SendDoneInt),
1233         INTR_AUTO(SendBufAvailInt),
1234         INTR_AUTO_C(RcvAvail),
1235         { .mask = 0 }
1236 };
1237
1238 #define TXSYMPTOM_AUTO_P(fldname) \
1239         { .mask = SYM_MASK(SendHdrErrSymptom_0, fldname), .msg = #fldname }
1240 static const struct  qib_hwerror_msgs hdrchk_msgs[] = {
1241         TXSYMPTOM_AUTO_P(NonKeyPacket),
1242         TXSYMPTOM_AUTO_P(GRHFail),
1243         TXSYMPTOM_AUTO_P(PkeyFail),
1244         TXSYMPTOM_AUTO_P(QPFail),
1245         TXSYMPTOM_AUTO_P(SLIDFail),
1246         TXSYMPTOM_AUTO_P(RawIPV6),
1247         TXSYMPTOM_AUTO_P(PacketTooSmall),
1248         { .mask = 0 }
1249 };
1250
1251 #define IBA7322_HDRHEAD_PKTINT_SHIFT 32 /* interrupt cnt in upper 32 bits */
1252
1253 /*
1254  * Called when we might have an error that is specific to a particular
1255  * PIO buffer, and may need to cancel that buffer, so it can be re-used,
1256  * because we don't need to force the update of pioavail
1257  */
1258 static void qib_disarm_7322_senderrbufs(struct qib_pportdata *ppd)
1259 {
1260         struct qib_devdata *dd = ppd->dd;
1261         u32 i;
1262         int any;
1263         u32 piobcnt = dd->piobcnt2k + dd->piobcnt4k + NUM_VL15_BUFS;
1264         u32 regcnt = (piobcnt + BITS_PER_LONG - 1) / BITS_PER_LONG;
1265         unsigned long sbuf[4];
1266
1267         /*
1268          * It's possible that sendbuffererror could have bits set; might
1269          * have already done this as a result of hardware error handling.
1270          */
1271         any = 0;
1272         for (i = 0; i < regcnt; ++i) {
1273                 sbuf[i] = qib_read_kreg64(dd, kr_sendbuffererror + i);
1274                 if (sbuf[i]) {
1275                         any = 1;
1276                         qib_write_kreg(dd, kr_sendbuffererror + i, sbuf[i]);
1277                 }
1278         }
1279
1280         if (any)
1281                 qib_disarm_piobufs_set(dd, sbuf, piobcnt);
1282 }
1283
1284 /* No txe_recover yet, if ever */
1285
1286 /* No decode__errors yet */
1287 static void err_decode(char *msg, size_t len, u64 errs,
1288                        const struct qib_hwerror_msgs *msp)
1289 {
1290         u64 these, lmask;
1291         int took, multi, n = 0;
1292
1293         while (msp && msp->mask) {
1294                 multi = (msp->mask & (msp->mask - 1));
1295                 while (errs & msp->mask) {
1296                         these = (errs & msp->mask);
1297                         lmask = (these & (these - 1)) ^ these;
1298                         if (len) {
1299                                 if (n++) {
1300                                         /* separate the strings */
1301                                         *msg++ = ',';
1302                                         len--;
1303                                 }
1304                                 took = scnprintf(msg, len, "%s", msp->msg);
1305                                 len -= took;
1306                                 msg += took;
1307                         }
1308                         errs &= ~lmask;
1309                         if (len && multi) {
1310                                 /* More than one bit this mask */
1311                                 int idx = -1;
1312
1313                                 while (lmask & msp->mask) {
1314                                         ++idx;
1315                                         lmask >>= 1;
1316                                 }
1317                                 took = scnprintf(msg, len, "_%d", idx);
1318                                 len -= took;
1319                                 msg += took;
1320                         }
1321                 }
1322                 ++msp;
1323         }
1324         /* If some bits are left, show in hex. */
1325         if (len && errs)
1326                 snprintf(msg, len, "%sMORE:%llX", n ? "," : "",
1327                         (unsigned long long) errs);
1328 }
1329
1330 /* only called if r1 set */
1331 static void flush_fifo(struct qib_pportdata *ppd)
1332 {
1333         struct qib_devdata *dd = ppd->dd;
1334         u32 __iomem *piobuf;
1335         u32 bufn;
1336         u32 *hdr;
1337         u64 pbc;
1338         const unsigned hdrwords = 7;
1339         static struct qib_ib_header ibhdr = {
1340                 .lrh[0] = cpu_to_be16(0xF000 | QIB_LRH_BTH),
1341                 .lrh[1] = IB_LID_PERMISSIVE,
1342                 .lrh[2] = cpu_to_be16(hdrwords + SIZE_OF_CRC),
1343                 .lrh[3] = IB_LID_PERMISSIVE,
1344                 .u.oth.bth[0] = cpu_to_be32(
1345                         (IB_OPCODE_UD_SEND_ONLY << 24) | QIB_DEFAULT_P_KEY),
1346                 .u.oth.bth[1] = cpu_to_be32(0),
1347                 .u.oth.bth[2] = cpu_to_be32(0),
1348                 .u.oth.u.ud.deth[0] = cpu_to_be32(0),
1349                 .u.oth.u.ud.deth[1] = cpu_to_be32(0),
1350         };
1351
1352         /*
1353          * Send a dummy VL15 packet to flush the launch FIFO.
1354          * This will not actually be sent since the TxeBypassIbc bit is set.
1355          */
1356         pbc = PBC_7322_VL15_SEND |
1357                 (((u64)ppd->hw_pidx) << (PBC_PORT_SEL_LSB + 32)) |
1358                 (hdrwords + SIZE_OF_CRC);
1359         piobuf = qib_7322_getsendbuf(ppd, pbc, &bufn);
1360         if (!piobuf)
1361                 return;
1362         writeq(pbc, piobuf);
1363         hdr = (u32 *) &ibhdr;
1364         if (dd->flags & QIB_PIO_FLUSH_WC) {
1365                 qib_flush_wc();
1366                 qib_pio_copy(piobuf + 2, hdr, hdrwords - 1);
1367                 qib_flush_wc();
1368                 __raw_writel(hdr[hdrwords - 1], piobuf + hdrwords + 1);
1369                 qib_flush_wc();
1370         } else
1371                 qib_pio_copy(piobuf + 2, hdr, hdrwords);
1372         qib_sendbuf_done(dd, bufn);
1373 }
1374
1375 /*
1376  * This is called with interrupts disabled and sdma_lock held.
1377  */
1378 static void qib_7322_sdma_sendctrl(struct qib_pportdata *ppd, unsigned op)
1379 {
1380         struct qib_devdata *dd = ppd->dd;
1381         u64 set_sendctrl = 0;
1382         u64 clr_sendctrl = 0;
1383
1384         if (op & QIB_SDMA_SENDCTRL_OP_ENABLE)
1385                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaEnable);
1386         else
1387                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaEnable);
1388
1389         if (op & QIB_SDMA_SENDCTRL_OP_INTENABLE)
1390                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaIntEnable);
1391         else
1392                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaIntEnable);
1393
1394         if (op & QIB_SDMA_SENDCTRL_OP_HALT)
1395                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaHalt);
1396         else
1397                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaHalt);
1398
1399         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN)
1400                 set_sendctrl |= SYM_MASK(SendCtrl_0, TxeBypassIbc) |
1401                                 SYM_MASK(SendCtrl_0, TxeAbortIbc) |
1402                                 SYM_MASK(SendCtrl_0, TxeDrainRmFifo);
1403         else
1404                 clr_sendctrl |= SYM_MASK(SendCtrl_0, TxeBypassIbc) |
1405                                 SYM_MASK(SendCtrl_0, TxeAbortIbc) |
1406                                 SYM_MASK(SendCtrl_0, TxeDrainRmFifo);
1407
1408         spin_lock(&dd->sendctrl_lock);
1409
1410         /* If we are draining everything, block sends first */
1411         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN) {
1412                 ppd->p_sendctrl &= ~SYM_MASK(SendCtrl_0, SendEnable);
1413                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1414                 qib_write_kreg(dd, kr_scratch, 0);
1415         }
1416
1417         ppd->p_sendctrl |= set_sendctrl;
1418         ppd->p_sendctrl &= ~clr_sendctrl;
1419
1420         if (op & QIB_SDMA_SENDCTRL_OP_CLEANUP)
1421                 qib_write_kreg_port(ppd, krp_sendctrl,
1422                                     ppd->p_sendctrl |
1423                                     SYM_MASK(SendCtrl_0, SDmaCleanup));
1424         else
1425                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1426         qib_write_kreg(dd, kr_scratch, 0);
1427
1428         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN) {
1429                 ppd->p_sendctrl |= SYM_MASK(SendCtrl_0, SendEnable);
1430                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1431                 qib_write_kreg(dd, kr_scratch, 0);
1432         }
1433
1434         spin_unlock(&dd->sendctrl_lock);
1435
1436         if ((op & QIB_SDMA_SENDCTRL_OP_DRAIN) && ppd->dd->cspec->r1)
1437                 flush_fifo(ppd);
1438 }
1439
1440 static void qib_7322_sdma_hw_clean_up(struct qib_pportdata *ppd)
1441 {
1442         __qib_sdma_process_event(ppd, qib_sdma_event_e50_hw_cleaned);
1443 }
1444
1445 static void qib_sdma_7322_setlengen(struct qib_pportdata *ppd)
1446 {
1447         /*
1448          * Set SendDmaLenGen and clear and set
1449          * the MSB of the generation count to enable generation checking
1450          * and load the internal generation counter.
1451          */
1452         qib_write_kreg_port(ppd, krp_senddmalengen, ppd->sdma_descq_cnt);
1453         qib_write_kreg_port(ppd, krp_senddmalengen,
1454                             ppd->sdma_descq_cnt |
1455                             (1ULL << QIB_7322_SendDmaLenGen_0_Generation_MSB));
1456 }
1457
1458 /*
1459  * Must be called with sdma_lock held, or before init finished.
1460  */
1461 static void qib_sdma_update_7322_tail(struct qib_pportdata *ppd, u16 tail)
1462 {
1463         /* Commit writes to memory and advance the tail on the chip */
1464         wmb();
1465         ppd->sdma_descq_tail = tail;
1466         qib_write_kreg_port(ppd, krp_senddmatail, tail);
1467 }
1468
1469 /*
1470  * This is called with interrupts disabled and sdma_lock held.
1471  */
1472 static void qib_7322_sdma_hw_start_up(struct qib_pportdata *ppd)
1473 {
1474         /*
1475          * Drain all FIFOs.
1476          * The hardware doesn't require this but we do it so that verbs
1477          * and user applications don't wait for link active to send stale
1478          * data.
1479          */
1480         sendctrl_7322_mod(ppd, QIB_SENDCTRL_FLUSH);
1481
1482         qib_sdma_7322_setlengen(ppd);
1483         qib_sdma_update_7322_tail(ppd, 0); /* Set SendDmaTail */
1484         ppd->sdma_head_dma[0] = 0;
1485         qib_7322_sdma_sendctrl(ppd,
1486                 ppd->sdma_state.current_op | QIB_SDMA_SENDCTRL_OP_CLEANUP);
1487 }
1488
1489 #define DISABLES_SDMA ( \
1490         QIB_E_P_SDMAHALT | \
1491         QIB_E_P_SDMADESCADDRMISALIGN | \
1492         QIB_E_P_SDMAMISSINGDW | \
1493         QIB_E_P_SDMADWEN | \
1494         QIB_E_P_SDMARPYTAG | \
1495         QIB_E_P_SDMA1STDESC | \
1496         QIB_E_P_SDMABASE | \
1497         QIB_E_P_SDMATAILOUTOFBOUND | \
1498         QIB_E_P_SDMAOUTOFBOUND | \
1499         QIB_E_P_SDMAGENMISMATCH)
1500
1501 static void sdma_7322_p_errors(struct qib_pportdata *ppd, u64 errs)
1502 {
1503         unsigned long flags;
1504         struct qib_devdata *dd = ppd->dd;
1505
1506         errs &= QIB_E_P_SDMAERRS;
1507
1508         if (errs & QIB_E_P_SDMAUNEXPDATA)
1509                 qib_dev_err(dd, "IB%u:%u SDmaUnexpData\n", dd->unit,
1510                             ppd->port);
1511
1512         spin_lock_irqsave(&ppd->sdma_lock, flags);
1513
1514         switch (ppd->sdma_state.current_state) {
1515         case qib_sdma_state_s00_hw_down:
1516                 break;
1517
1518         case qib_sdma_state_s10_hw_start_up_wait:
1519                 if (errs & QIB_E_P_SDMAHALT)
1520                         __qib_sdma_process_event(ppd,
1521                                 qib_sdma_event_e20_hw_started);
1522                 break;
1523
1524         case qib_sdma_state_s20_idle:
1525                 break;
1526
1527         case qib_sdma_state_s30_sw_clean_up_wait:
1528                 break;
1529
1530         case qib_sdma_state_s40_hw_clean_up_wait:
1531                 if (errs & QIB_E_P_SDMAHALT)
1532                         __qib_sdma_process_event(ppd,
1533                                 qib_sdma_event_e50_hw_cleaned);
1534                 break;
1535
1536         case qib_sdma_state_s50_hw_halt_wait:
1537                 if (errs & QIB_E_P_SDMAHALT)
1538                         __qib_sdma_process_event(ppd,
1539                                 qib_sdma_event_e60_hw_halted);
1540                 break;
1541
1542         case qib_sdma_state_s99_running:
1543                 __qib_sdma_process_event(ppd, qib_sdma_event_e7322_err_halted);
1544                 __qib_sdma_process_event(ppd, qib_sdma_event_e60_hw_halted);
1545                 break;
1546         }
1547
1548         spin_unlock_irqrestore(&ppd->sdma_lock, flags);
1549 }
1550
1551 /*
1552  * handle per-device errors (not per-port errors)
1553  */
1554 static noinline void handle_7322_errors(struct qib_devdata *dd)
1555 {
1556         char *msg;
1557         u64 iserr = 0;
1558         u64 errs;
1559         u64 mask;
1560         int log_idx;
1561
1562         qib_stats.sps_errints++;
1563         errs = qib_read_kreg64(dd, kr_errstatus);
1564         if (!errs) {
1565                 qib_devinfo(dd->pcidev, "device error interrupt, "
1566                          "but no error bits set!\n");
1567                 goto done;
1568         }
1569
1570         /* don't report errors that are masked */
1571         errs &= dd->cspec->errormask;
1572         msg = dd->cspec->emsgbuf;
1573
1574         /* do these first, they are most important */
1575         if (errs & QIB_E_HARDWARE) {
1576                 *msg = '\0';
1577                 qib_7322_handle_hwerrors(dd, msg, sizeof dd->cspec->emsgbuf);
1578         } else
1579                 for (log_idx = 0; log_idx < QIB_EEP_LOG_CNT; ++log_idx)
1580                         if (errs & dd->eep_st_masks[log_idx].errs_to_log)
1581                                 qib_inc_eeprom_err(dd, log_idx, 1);
1582
1583         if (errs & QIB_E_SPKTERRS) {
1584                 qib_disarm_7322_senderrbufs(dd->pport);
1585                 qib_stats.sps_txerrs++;
1586         } else if (errs & QIB_E_INVALIDADDR)
1587                 qib_stats.sps_txerrs++;
1588         else if (errs & QIB_E_ARMLAUNCH) {
1589                 qib_stats.sps_txerrs++;
1590                 qib_disarm_7322_senderrbufs(dd->pport);
1591         }
1592         qib_write_kreg(dd, kr_errclear, errs);
1593
1594         /*
1595          * The ones we mask off are handled specially below
1596          * or above.  Also mask SDMADISABLED by default as it
1597          * is too chatty.
1598          */
1599         mask = QIB_E_HARDWARE;
1600         *msg = '\0';
1601
1602         err_decode(msg, sizeof dd->cspec->emsgbuf, errs & ~mask,
1603                    qib_7322error_msgs);
1604
1605         /*
1606          * Getting reset is a tragedy for all ports. Mark the device
1607          * _and_ the ports as "offline" in way meaningful to each.
1608          */
1609         if (errs & QIB_E_RESET) {
1610                 int pidx;
1611
1612                 qib_dev_err(dd, "Got reset, requires re-init "
1613                             "(unload and reload driver)\n");
1614                 dd->flags &= ~QIB_INITTED;  /* needs re-init */
1615                 /* mark as having had error */
1616                 *dd->devstatusp |= QIB_STATUS_HWERROR;
1617                 for (pidx = 0; pidx < dd->num_pports; ++pidx)
1618                         if (dd->pport[pidx].link_speed_supported)
1619                                 *dd->pport[pidx].statusp &= ~QIB_STATUS_IB_CONF;
1620         }
1621
1622         if (*msg && iserr)
1623                 qib_dev_err(dd, "%s error\n", msg);
1624
1625         /*
1626          * If there were hdrq or egrfull errors, wake up any processes
1627          * waiting in poll.  We used to try to check which contexts had
1628          * the overflow, but given the cost of that and the chip reads
1629          * to support it, it's better to just wake everybody up if we
1630          * get an overflow; waiters can poll again if it's not them.
1631          */
1632         if (errs & (ERR_MASK(RcvEgrFullErr) | ERR_MASK(RcvHdrFullErr))) {
1633                 qib_handle_urcv(dd, ~0U);
1634                 if (errs & ERR_MASK(RcvEgrFullErr))
1635                         qib_stats.sps_buffull++;
1636                 else
1637                         qib_stats.sps_hdrfull++;
1638         }
1639
1640 done:
1641         return;
1642 }
1643
1644 static void reenable_chase(unsigned long opaque)
1645 {
1646         struct qib_pportdata *ppd = (struct qib_pportdata *)opaque;
1647
1648         ppd->cpspec->chase_timer.expires = 0;
1649         qib_set_ib_7322_lstate(ppd, QLOGIC_IB_IBCC_LINKCMD_DOWN,
1650                 QLOGIC_IB_IBCC_LINKINITCMD_POLL);
1651 }
1652
1653 static void disable_chase(struct qib_pportdata *ppd, u64 tnow, u8 ibclt)
1654 {
1655         ppd->cpspec->chase_end = 0;
1656
1657         if (!qib_chase)
1658                 return;
1659
1660         qib_set_ib_7322_lstate(ppd, QLOGIC_IB_IBCC_LINKCMD_DOWN,
1661                 QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
1662         ppd->cpspec->chase_timer.expires = jiffies + QIB_CHASE_DIS_TIME;
1663         add_timer(&ppd->cpspec->chase_timer);
1664 }
1665
1666 static void handle_serdes_issues(struct qib_pportdata *ppd, u64 ibcst)
1667 {
1668         u8 ibclt;
1669         u64 tnow;
1670
1671         ibclt = (u8)SYM_FIELD(ibcst, IBCStatusA_0, LinkTrainingState);
1672
1673         /*
1674          * Detect and handle the state chase issue, where we can
1675          * get stuck if we are unlucky on timing on both sides of
1676          * the link.   If we are, we disable, set a timer, and
1677          * then re-enable.
1678          */
1679         switch (ibclt) {
1680         case IB_7322_LT_STATE_CFGRCVFCFG:
1681         case IB_7322_LT_STATE_CFGWAITRMT:
1682         case IB_7322_LT_STATE_TXREVLANES:
1683         case IB_7322_LT_STATE_CFGENH:
1684                 tnow = get_jiffies_64();
1685                 if (ppd->cpspec->chase_end &&
1686                      time_after64(tnow, ppd->cpspec->chase_end))
1687                         disable_chase(ppd, tnow, ibclt);
1688                 else if (!ppd->cpspec->chase_end)
1689                         ppd->cpspec->chase_end = tnow + QIB_CHASE_TIME;
1690                 break;
1691         default:
1692                 ppd->cpspec->chase_end = 0;
1693                 break;
1694         }
1695
1696         if (ibclt == IB_7322_LT_STATE_CFGTEST &&
1697             (ibcst & SYM_MASK(IBCStatusA_0, LinkSpeedQDR))) {
1698                 force_h1(ppd);
1699                 ppd->cpspec->qdr_reforce = 1;
1700                 if (!ppd->dd->cspec->r1)
1701                         serdes_7322_los_enable(ppd, 0);
1702         } else if (ppd->cpspec->qdr_reforce &&
1703                 (ibcst & SYM_MASK(IBCStatusA_0, LinkSpeedQDR)) &&
1704                  (ibclt == IB_7322_LT_STATE_CFGENH ||
1705                 ibclt == IB_7322_LT_STATE_CFGIDLE ||
1706                 ibclt == IB_7322_LT_STATE_LINKUP))
1707                 force_h1(ppd);
1708
1709         if ((IS_QMH(ppd->dd) || IS_QME(ppd->dd)) &&
1710             ppd->link_speed_enabled == QIB_IB_QDR &&
1711             (ibclt == IB_7322_LT_STATE_CFGTEST ||
1712              ibclt == IB_7322_LT_STATE_CFGENH ||
1713              (ibclt >= IB_7322_LT_STATE_POLLACTIVE &&
1714               ibclt <= IB_7322_LT_STATE_SLEEPQUIET)))
1715                 adj_tx_serdes(ppd);
1716
1717         if (ibclt != IB_7322_LT_STATE_LINKUP) {
1718                 u8 ltstate = qib_7322_phys_portstate(ibcst);
1719                 u8 pibclt = (u8)SYM_FIELD(ppd->lastibcstat, IBCStatusA_0,
1720                                           LinkTrainingState);
1721                 if (!ppd->dd->cspec->r1 &&
1722                     pibclt == IB_7322_LT_STATE_LINKUP &&
1723                     ltstate != IB_PHYSPORTSTATE_LINK_ERR_RECOVER &&
1724                     ltstate != IB_PHYSPORTSTATE_RECOVERY_RETRAIN &&
1725                     ltstate != IB_PHYSPORTSTATE_RECOVERY_WAITRMT &&
1726                     ltstate != IB_PHYSPORTSTATE_RECOVERY_IDLE)
1727                         /* If the link went down (but no into recovery,
1728                          * turn LOS back on */
1729                         serdes_7322_los_enable(ppd, 1);
1730                 if (!ppd->cpspec->qdr_dfe_on &&
1731                     ibclt <= IB_7322_LT_STATE_SLEEPQUIET) {
1732                         ppd->cpspec->qdr_dfe_on = 1;
1733                         ppd->cpspec->qdr_dfe_time = 0;
1734                         /* On link down, reenable QDR adaptation */
1735                         qib_write_kreg_port(ppd, krp_static_adapt_dis(2),
1736                                             ppd->dd->cspec->r1 ?
1737                                             QDR_STATIC_ADAPT_DOWN_R1 :
1738                                             QDR_STATIC_ADAPT_DOWN);
1739                         printk(KERN_INFO QIB_DRV_NAME
1740                                 " IB%u:%u re-enabled QDR adaptation "
1741                                 "ibclt %x\n", ppd->dd->unit, ppd->port, ibclt);
1742                 }
1743         }
1744 }
1745
1746 static int qib_7322_set_ib_cfg(struct qib_pportdata *, int, u32);
1747
1748 /*
1749  * This is per-pport error handling.
1750  * will likely get it's own MSIx interrupt (one for each port,
1751  * although just a single handler).
1752  */
1753 static noinline void handle_7322_p_errors(struct qib_pportdata *ppd)
1754 {
1755         char *msg;
1756         u64 ignore_this_time = 0, iserr = 0, errs, fmask;
1757         struct qib_devdata *dd = ppd->dd;
1758
1759         /* do this as soon as possible */
1760         fmask = qib_read_kreg64(dd, kr_act_fmask);
1761         if (!fmask)
1762                 check_7322_rxe_status(ppd);
1763
1764         errs = qib_read_kreg_port(ppd, krp_errstatus);
1765         if (!errs)
1766                 qib_devinfo(dd->pcidev,
1767                          "Port%d error interrupt, but no error bits set!\n",
1768                          ppd->port);
1769         if (!fmask)
1770                 errs &= ~QIB_E_P_IBSTATUSCHANGED;
1771         if (!errs)
1772                 goto done;
1773
1774         msg = ppd->cpspec->epmsgbuf;
1775         *msg = '\0';
1776
1777         if (errs & ~QIB_E_P_BITSEXTANT) {
1778                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf,
1779                            errs & ~QIB_E_P_BITSEXTANT, qib_7322p_error_msgs);
1780                 if (!*msg)
1781                         snprintf(msg, sizeof ppd->cpspec->epmsgbuf,
1782                                  "no others");
1783                 qib_dev_porterr(dd, ppd->port, "error interrupt with unknown"
1784                                 " errors 0x%016Lx set (and %s)\n",
1785                                 (errs & ~QIB_E_P_BITSEXTANT), msg);
1786                 *msg = '\0';
1787         }
1788
1789         if (errs & QIB_E_P_SHDR) {
1790                 u64 symptom;
1791
1792                 /* determine cause, then write to clear */
1793                 symptom = qib_read_kreg_port(ppd, krp_sendhdrsymptom);
1794                 qib_write_kreg_port(ppd, krp_sendhdrsymptom, 0);
1795                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf, symptom,
1796                            hdrchk_msgs);
1797                 *msg = '\0';
1798                 /* senderrbuf cleared in SPKTERRS below */
1799         }
1800
1801         if (errs & QIB_E_P_SPKTERRS) {
1802                 if ((errs & QIB_E_P_LINK_PKTERRS) &&
1803                     !(ppd->lflags & QIBL_LINKACTIVE)) {
1804                         /*
1805                          * This can happen when trying to bring the link
1806                          * up, but the IB link changes state at the "wrong"
1807                          * time. The IB logic then complains that the packet
1808                          * isn't valid.  We don't want to confuse people, so
1809                          * we just don't print them, except at debug
1810                          */
1811                         err_decode(msg, sizeof ppd->cpspec->epmsgbuf,
1812                                    (errs & QIB_E_P_LINK_PKTERRS),
1813                                    qib_7322p_error_msgs);
1814                         *msg = '\0';
1815                         ignore_this_time = errs & QIB_E_P_LINK_PKTERRS;
1816                 }
1817                 qib_disarm_7322_senderrbufs(ppd);
1818         } else if ((errs & QIB_E_P_LINK_PKTERRS) &&
1819                    !(ppd->lflags & QIBL_LINKACTIVE)) {
1820                 /*
1821                  * This can happen when SMA is trying to bring the link
1822                  * up, but the IB link changes state at the "wrong" time.
1823                  * The IB logic then complains that the packet isn't
1824                  * valid.  We don't want to confuse people, so we just
1825                  * don't print them, except at debug
1826                  */
1827                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf, errs,
1828                            qib_7322p_error_msgs);
1829                 ignore_this_time = errs & QIB_E_P_LINK_PKTERRS;
1830                 *msg = '\0';
1831         }
1832
1833         qib_write_kreg_port(ppd, krp_errclear, errs);
1834
1835         errs &= ~ignore_this_time;
1836         if (!errs)
1837                 goto done;
1838
1839         if (errs & QIB_E_P_RPKTERRS)
1840                 qib_stats.sps_rcverrs++;
1841         if (errs & QIB_E_P_SPKTERRS)
1842                 qib_stats.sps_txerrs++;
1843
1844         iserr = errs & ~(QIB_E_P_RPKTERRS | QIB_E_P_PKTERRS);
1845
1846         if (errs & QIB_E_P_SDMAERRS)
1847                 sdma_7322_p_errors(ppd, errs);
1848
1849         if (errs & QIB_E_P_IBSTATUSCHANGED) {
1850                 u64 ibcs;
1851                 u8 ltstate;
1852
1853                 ibcs = qib_read_kreg_port(ppd, krp_ibcstatus_a);
1854                 ltstate = qib_7322_phys_portstate(ibcs);
1855
1856                 if (!(ppd->lflags & QIBL_IB_AUTONEG_INPROG))
1857                         handle_serdes_issues(ppd, ibcs);
1858                 if (!(ppd->cpspec->ibcctrl_a &
1859                       SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn))) {
1860                         /*
1861                          * We got our interrupt, so init code should be
1862                          * happy and not try alternatives. Now squelch
1863                          * other "chatter" from link-negotiation (pre Init)
1864                          */
1865                         ppd->cpspec->ibcctrl_a |=
1866                                 SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn);
1867                         qib_write_kreg_port(ppd, krp_ibcctrl_a,
1868                                             ppd->cpspec->ibcctrl_a);
1869                 }
1870
1871                 /* Update our picture of width and speed from chip */
1872                 ppd->link_width_active =
1873                         (ibcs & SYM_MASK(IBCStatusA_0, LinkWidthActive)) ?
1874                             IB_WIDTH_4X : IB_WIDTH_1X;
1875                 ppd->link_speed_active = (ibcs & SYM_MASK(IBCStatusA_0,
1876                         LinkSpeedQDR)) ? QIB_IB_QDR : (ibcs &
1877                           SYM_MASK(IBCStatusA_0, LinkSpeedActive)) ?
1878                                    QIB_IB_DDR : QIB_IB_SDR;
1879
1880                 if ((ppd->lflags & QIBL_IB_LINK_DISABLED) && ltstate !=
1881                     IB_PHYSPORTSTATE_DISABLED)
1882                         qib_set_ib_7322_lstate(ppd, 0,
1883                                QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
1884                 else {
1885                         u32 lstate;
1886                         /*
1887                          * We need the current logical link state before
1888                          * lflags are set in handle_e_ibstatuschanged.
1889                          */
1890                         lstate = qib_7322_iblink_state(ibcs);
1891
1892                         if (IS_QMH(dd) && !ppd->cpspec->bounced &&
1893                             ltstate == IB_PHYSPORTSTATE_LINKUP &&
1894                             (lstate >= IB_PORT_INIT &&
1895                                 lstate <= IB_PORT_ACTIVE)) {
1896                                 ppd->cpspec->bounced = 1;
1897                                 qib_7322_set_ib_cfg(ppd, QIB_IB_CFG_LSTATE,
1898                                         IB_LINKCMD_DOWN | IB_LINKINITCMD_POLL);
1899                         }
1900
1901                         /*
1902                          * Since going into a recovery state causes the link
1903                          * state to go down and since recovery is transitory,
1904                          * it is better if we "miss" ever seeing the link
1905                          * training state go into recovery (i.e., ignore this
1906                          * transition for link state special handling purposes)
1907                          * without updating lastibcstat.
1908                          */
1909                         if (ltstate != IB_PHYSPORTSTATE_LINK_ERR_RECOVER &&
1910                             ltstate != IB_PHYSPORTSTATE_RECOVERY_RETRAIN &&
1911                             ltstate != IB_PHYSPORTSTATE_RECOVERY_WAITRMT &&
1912                             ltstate != IB_PHYSPORTSTATE_RECOVERY_IDLE)
1913                                 qib_handle_e_ibstatuschanged(ppd, ibcs);
1914                 }
1915         }
1916         if (*msg && iserr)
1917                 qib_dev_porterr(dd, ppd->port, "%s error\n", msg);
1918
1919         if (ppd->state_wanted & ppd->lflags)
1920                 wake_up_interruptible(&ppd->state_wait);
1921 done:
1922         return;
1923 }
1924
1925 /* enable/disable chip from delivering interrupts */
1926 static void qib_7322_set_intr_state(struct qib_devdata *dd, u32 enable)
1927 {
1928         if (enable) {
1929                 if (dd->flags & QIB_BADINTR)
1930                         return;
1931                 qib_write_kreg(dd, kr_intmask, dd->cspec->int_enable_mask);
1932                 /* cause any pending enabled interrupts to be re-delivered */
1933                 qib_write_kreg(dd, kr_intclear, 0ULL);
1934                 if (dd->cspec->num_msix_entries) {
1935                         /* and same for MSIx */
1936                         u64 val = qib_read_kreg64(dd, kr_intgranted);
1937                         if (val)
1938                                 qib_write_kreg(dd, kr_intgranted, val);
1939                 }
1940         } else
1941                 qib_write_kreg(dd, kr_intmask, 0ULL);
1942 }
1943
1944 /*
1945  * Try to cleanup as much as possible for anything that might have gone
1946  * wrong while in freeze mode, such as pio buffers being written by user
1947  * processes (causing armlaunch), send errors due to going into freeze mode,
1948  * etc., and try to avoid causing extra interrupts while doing so.
1949  * Forcibly update the in-memory pioavail register copies after cleanup
1950  * because the chip won't do it while in freeze mode (the register values
1951  * themselves are kept correct).
1952  * Make sure that we don't lose any important interrupts by using the chip
1953  * feature that says that writing 0 to a bit in *clear that is set in
1954  * *status will cause an interrupt to be generated again (if allowed by
1955  * the *mask value).
1956  * This is in chip-specific code because of all of the register accesses,
1957  * even though the details are similar on most chips.
1958  */
1959 static void qib_7322_clear_freeze(struct qib_devdata *dd)
1960 {
1961         int pidx;
1962
1963         /* disable error interrupts, to avoid confusion */
1964         qib_write_kreg(dd, kr_errmask, 0ULL);
1965
1966         for (pidx = 0; pidx < dd->num_pports; ++pidx)
1967                 if (dd->pport[pidx].link_speed_supported)
1968                         qib_write_kreg_port(dd->pport + pidx, krp_errmask,
1969                                             0ULL);
1970
1971         /* also disable interrupts; errormask is sometimes overwriten */
1972         qib_7322_set_intr_state(dd, 0);
1973
1974         /* clear the freeze, and be sure chip saw it */
1975         qib_write_kreg(dd, kr_control, dd->control);
1976         qib_read_kreg32(dd, kr_scratch);
1977
1978         /*
1979          * Force new interrupt if any hwerr, error or interrupt bits are
1980          * still set, and clear "safe" send packet errors related to freeze
1981          * and cancelling sends.  Re-enable error interrupts before possible
1982          * force of re-interrupt on pending interrupts.
1983          */
1984         qib_write_kreg(dd, kr_hwerrclear, 0ULL);
1985         qib_write_kreg(dd, kr_errclear, E_SPKT_ERRS_IGNORE);
1986         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
1987         /* We need to purge per-port errs and reset mask, too */
1988         for (pidx = 0; pidx < dd->num_pports; ++pidx) {
1989                 if (!dd->pport[pidx].link_speed_supported)
1990                         continue;
1991                 qib_write_kreg_port(dd->pport + pidx, krp_errclear, ~0Ull);
1992                 qib_write_kreg_port(dd->pport + pidx, krp_errmask, ~0Ull);
1993         }
1994         qib_7322_set_intr_state(dd, 1);
1995 }
1996
1997 /* no error handling to speak of */
1998 /**
1999  * qib_7322_handle_hwerrors - display hardware errors.
2000  * @dd: the qlogic_ib device
2001  * @msg: the output buffer
2002  * @msgl: the size of the output buffer
2003  *
2004  * Use same msg buffer as regular errors to avoid excessive stack
2005  * use.  Most hardware errors are catastrophic, but for right now,
2006  * we'll print them and continue.  We reuse the same message buffer as
2007  * qib_handle_errors() to avoid excessive stack usage.
2008  */
2009 static void qib_7322_handle_hwerrors(struct qib_devdata *dd, char *msg,
2010                                      size_t msgl)
2011 {
2012         u64 hwerrs;
2013         u32 ctrl;
2014         int isfatal = 0;
2015
2016         hwerrs = qib_read_kreg64(dd, kr_hwerrstatus);
2017         if (!hwerrs)
2018                 goto bail;
2019         if (hwerrs == ~0ULL) {
2020                 qib_dev_err(dd, "Read of hardware error status failed "
2021                             "(all bits set); ignoring\n");
2022                 goto bail;
2023         }
2024         qib_stats.sps_hwerrs++;
2025
2026         /* Always clear the error status register, except BIST fail */
2027         qib_write_kreg(dd, kr_hwerrclear, hwerrs &
2028                        ~HWE_MASK(PowerOnBISTFailed));
2029
2030         hwerrs &= dd->cspec->hwerrmask;
2031
2032         /* no EEPROM logging, yet */
2033
2034         if (hwerrs)
2035                 qib_devinfo(dd->pcidev, "Hardware error: hwerr=0x%llx "
2036                             "(cleared)\n", (unsigned long long) hwerrs);
2037
2038         ctrl = qib_read_kreg32(dd, kr_control);
2039         if ((ctrl & SYM_MASK(Control, FreezeMode)) && !dd->diag_client) {
2040                 /*
2041                  * No recovery yet...
2042                  */
2043                 if ((hwerrs & ~HWE_MASK(LATriggered)) ||
2044                     dd->cspec->stay_in_freeze) {
2045                         /*
2046                          * If any set that we aren't ignoring only make the
2047                          * complaint once, in case it's stuck or recurring,
2048                          * and we get here multiple times
2049                          * Force link down, so switch knows, and
2050                          * LEDs are turned off.
2051                          */
2052                         if (dd->flags & QIB_INITTED)
2053                                 isfatal = 1;
2054                 } else
2055                         qib_7322_clear_freeze(dd);
2056         }
2057
2058         if (hwerrs & HWE_MASK(PowerOnBISTFailed)) {
2059                 isfatal = 1;
2060                 strlcpy(msg, "[Memory BIST test failed, "
2061                         "InfiniPath hardware unusable]", msgl);
2062                 /* ignore from now on, so disable until driver reloaded */
2063                 dd->cspec->hwerrmask &= ~HWE_MASK(PowerOnBISTFailed);
2064                 qib_write_kreg(dd, kr_hwerrmask, dd->cspec->hwerrmask);
2065         }
2066
2067         err_decode(msg, msgl, hwerrs, qib_7322_hwerror_msgs);
2068
2069         /* Ignore esoteric PLL failures et al. */
2070
2071         qib_dev_err(dd, "%s hardware error\n", msg);
2072
2073         if (isfatal && !dd->diag_client) {
2074                 qib_dev_err(dd, "Fatal Hardware Error, no longer"
2075                             " usable, SN %.16s\n", dd->serial);
2076                 /*
2077                  * for /sys status file and user programs to print; if no
2078                  * trailing brace is copied, we'll know it was truncated.
2079                  */
2080                 if (dd->freezemsg)
2081                         snprintf(dd->freezemsg, dd->freezelen,
2082                                  "{%s}", msg);
2083                 qib_disable_after_error(dd);
2084         }
2085 bail:;
2086 }
2087
2088 /**
2089  * qib_7322_init_hwerrors - enable hardware errors
2090  * @dd: the qlogic_ib device
2091  *
2092  * now that we have finished initializing everything that might reasonably
2093  * cause a hardware error, and cleared those errors bits as they occur,
2094  * we can enable hardware errors in the mask (potentially enabling
2095  * freeze mode), and enable hardware errors as errors (along with
2096  * everything else) in errormask
2097  */
2098 static void qib_7322_init_hwerrors(struct qib_devdata *dd)
2099 {
2100         int pidx;
2101         u64 extsval;
2102
2103         extsval = qib_read_kreg64(dd, kr_extstatus);
2104         if (!(extsval & (QIB_EXTS_MEMBIST_DISABLED |
2105                          QIB_EXTS_MEMBIST_ENDTEST)))
2106                 qib_dev_err(dd, "MemBIST did not complete!\n");
2107
2108         /* never clear BIST failure, so reported on each driver load */
2109         qib_write_kreg(dd, kr_hwerrclear, ~HWE_MASK(PowerOnBISTFailed));
2110         qib_write_kreg(dd, kr_hwerrmask, dd->cspec->hwerrmask);
2111
2112         /* clear all */
2113         qib_write_kreg(dd, kr_errclear, ~0ULL);
2114         /* enable errors that are masked, at least this first time. */
2115         qib_write_kreg(dd, kr_errmask, ~0ULL);
2116         dd->cspec->errormask = qib_read_kreg64(dd, kr_errmask);
2117         for (pidx = 0; pidx < dd->num_pports; ++pidx)
2118                 if (dd->pport[pidx].link_speed_supported)
2119                         qib_write_kreg_port(dd->pport + pidx, krp_errmask,
2120                                             ~0ULL);
2121 }
2122
2123 /*
2124  * Disable and enable the armlaunch error.  Used for PIO bandwidth testing
2125  * on chips that are count-based, rather than trigger-based.  There is no
2126  * reference counting, but that's also fine, given the intended use.
2127  * Only chip-specific because it's all register accesses
2128  */
2129 static void qib_set_7322_armlaunch(struct qib_devdata *dd, u32 enable)
2130 {
2131         if (enable) {
2132                 qib_write_kreg(dd, kr_errclear, QIB_E_SPIOARMLAUNCH);
2133                 dd->cspec->errormask |= QIB_E_SPIOARMLAUNCH;
2134         } else
2135                 dd->cspec->errormask &= ~QIB_E_SPIOARMLAUNCH;
2136         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
2137 }
2138
2139 /*
2140  * Formerly took parameter <which> in pre-shifted,
2141  * pre-merged form with LinkCmd and LinkInitCmd
2142  * together, and assuming the zero was NOP.
2143  */
2144 static void qib_set_ib_7322_lstate(struct qib_pportdata *ppd, u16 linkcmd,
2145                                    u16 linitcmd)
2146 {
2147         u64 mod_wd;
2148         struct qib_devdata *dd = ppd->dd;
2149         unsigned long flags;
2150
2151         if (linitcmd == QLOGIC_IB_IBCC_LINKINITCMD_DISABLE) {
2152                 /*
2153                  * If we are told to disable, note that so link-recovery
2154                  * code does not attempt to bring us back up.
2155                  * Also reset everything that we can, so we start
2156                  * completely clean when re-enabled (before we
2157                  * actually issue the disable to the IBC)
2158                  */
2159                 qib_7322_mini_pcs_reset(ppd);
2160                 spin_lock_irqsave(&ppd->lflags_lock, flags);
2161                 ppd->lflags |= QIBL_IB_LINK_DISABLED;
2162                 spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2163         } else if (linitcmd || linkcmd == QLOGIC_IB_IBCC_LINKCMD_DOWN) {
2164                 /*
2165                  * Any other linkinitcmd will lead to LINKDOWN and then
2166                  * to INIT (if all is well), so clear flag to let
2167                  * link-recovery code attempt to bring us back up.
2168                  */
2169                 spin_lock_irqsave(&ppd->lflags_lock, flags);
2170                 ppd->lflags &= ~QIBL_IB_LINK_DISABLED;
2171                 spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2172                 /*
2173                  * Clear status change interrupt reduction so the
2174                  * new state is seen.
2175                  */
2176                 ppd->cpspec->ibcctrl_a &=
2177                         ~SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn);
2178         }
2179
2180         mod_wd = (linkcmd << IBA7322_IBCC_LINKCMD_SHIFT) |
2181                 (linitcmd << QLOGIC_IB_IBCC_LINKINITCMD_SHIFT);
2182
2183         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a |
2184                             mod_wd);
2185         /* write to chip to prevent back-to-back writes of ibc reg */
2186         qib_write_kreg(dd, kr_scratch, 0);
2187
2188 }
2189
2190 /*
2191  * The total RCV buffer memory is 64KB, used for both ports, and is
2192  * in units of 64 bytes (same as IB flow control credit unit).
2193  * The consumedVL unit in the same registers are in 32 byte units!
2194  * So, a VL15 packet needs 4.50 IB credits, and 9 rx buffer chunks,
2195  * and we can therefore allocate just 9 IB credits for 2 VL15 packets
2196  * in krp_rxcreditvl15, rather than 10.
2197  */
2198 #define RCV_BUF_UNITSZ 64
2199 #define NUM_RCV_BUF_UNITS(dd) ((64 * 1024) / (RCV_BUF_UNITSZ * dd->num_pports))
2200
2201 static void set_vls(struct qib_pportdata *ppd)
2202 {
2203         int i, numvls, totcred, cred_vl, vl0extra;
2204         struct qib_devdata *dd = ppd->dd;
2205         u64 val;
2206
2207         numvls = qib_num_vls(ppd->vls_operational);
2208
2209         /*
2210          * Set up per-VL credits. Below is kluge based on these assumptions:
2211          * 1) port is disabled at the time early_init is called.
2212          * 2) give VL15 17 credits, for two max-plausible packets.
2213          * 3) Give VL0-N the rest, with any rounding excess used for VL0
2214          */
2215         /* 2 VL15 packets @ 288 bytes each (including IB headers) */
2216         totcred = NUM_RCV_BUF_UNITS(dd);
2217         cred_vl = (2 * 288 + RCV_BUF_UNITSZ - 1) / RCV_BUF_UNITSZ;
2218         totcred -= cred_vl;
2219         qib_write_kreg_port(ppd, krp_rxcreditvl15, (u64) cred_vl);
2220         cred_vl = totcred / numvls;
2221         vl0extra = totcred - cred_vl * numvls;
2222         qib_write_kreg_port(ppd, krp_rxcreditvl0, cred_vl + vl0extra);
2223         for (i = 1; i < numvls; i++)
2224                 qib_write_kreg_port(ppd, krp_rxcreditvl0 + i, cred_vl);
2225         for (; i < 8; i++) /* no buffer space for other VLs */
2226                 qib_write_kreg_port(ppd, krp_rxcreditvl0 + i, 0);
2227
2228         /* Notify IBC that credits need to be recalculated */
2229         val = qib_read_kreg_port(ppd, krp_ibsdtestiftx);
2230         val |= SYM_MASK(IB_SDTEST_IF_TX_0, CREDIT_CHANGE);
2231         qib_write_kreg_port(ppd, krp_ibsdtestiftx, val);
2232         qib_write_kreg(dd, kr_scratch, 0ULL);
2233         val &= ~SYM_MASK(IB_SDTEST_IF_TX_0, CREDIT_CHANGE);
2234         qib_write_kreg_port(ppd, krp_ibsdtestiftx, val);
2235
2236         for (i = 0; i < numvls; i++)
2237                 val = qib_read_kreg_port(ppd, krp_rxcreditvl0 + i);
2238         val = qib_read_kreg_port(ppd, krp_rxcreditvl15);
2239
2240         /* Change the number of operational VLs */
2241         ppd->cpspec->ibcctrl_a = (ppd->cpspec->ibcctrl_a &
2242                                 ~SYM_MASK(IBCCtrlA_0, NumVLane)) |
2243                 ((u64)(numvls - 1) << SYM_LSB(IBCCtrlA_0, NumVLane));
2244         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a);
2245         qib_write_kreg(dd, kr_scratch, 0ULL);
2246 }
2247
2248 /*
2249  * The code that deals with actual SerDes is in serdes_7322_init().
2250  * Compared to the code for iba7220, it is minimal.
2251  */
2252 static int serdes_7322_init(struct qib_pportdata *ppd);
2253
2254 /**
2255  * qib_7322_bringup_serdes - bring up the serdes
2256  * @ppd: physical port on the qlogic_ib device
2257  */
2258 static int qib_7322_bringup_serdes(struct qib_pportdata *ppd)
2259 {
2260         struct qib_devdata *dd = ppd->dd;
2261         u64 val, guid, ibc;
2262         unsigned long flags;
2263         int ret = 0;
2264
2265         /*
2266          * SerDes model not in Pd, but still need to
2267          * set up much of IBCCtrl and IBCDDRCtrl; move elsewhere
2268          * eventually.
2269          */
2270         /* Put IBC in reset, sends disabled (should be in reset already) */
2271         ppd->cpspec->ibcctrl_a &= ~SYM_MASK(IBCCtrlA_0, IBLinkEn);
2272         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a);
2273         qib_write_kreg(dd, kr_scratch, 0ULL);
2274
2275         if (qib_compat_ddr_negotiate) {
2276                 ppd->cpspec->ibdeltainprog = 1;
2277                 ppd->cpspec->ibsymsnap = read_7322_creg32_port(ppd,
2278                                                 crp_ibsymbolerr);
2279                 ppd->cpspec->iblnkerrsnap = read_7322_creg32_port(ppd,
2280                                                 crp_iblinkerrrecov);
2281         }
2282
2283         /* flowcontrolwatermark is in units of KBytes */
2284         ibc = 0x5ULL << SYM_LSB(IBCCtrlA_0, FlowCtrlWaterMark);
2285         /*
2286          * Flow control is sent this often, even if no changes in
2287          * buffer space occur.  Units are 128ns for this chip.
2288          * Set to 3usec.
2289          */
2290         ibc |= 24ULL << SYM_LSB(IBCCtrlA_0, FlowCtrlPeriod);
2291         /* max error tolerance */
2292         ibc |= 0xfULL << SYM_LSB(IBCCtrlA_0, PhyerrThreshold);
2293         /* IB credit flow control. */
2294         ibc |= 0xfULL << SYM_LSB(IBCCtrlA_0, OverrunThreshold);
2295         /*
2296          * set initial max size pkt IBC will send, including ICRC; it's the
2297          * PIO buffer size in dwords, less 1; also see qib_set_mtu()
2298          */
2299         ibc |= ((u64)(ppd->ibmaxlen >> 2) + 1) <<
2300                 SYM_LSB(IBCCtrlA_0, MaxPktLen);
2301         ppd->cpspec->ibcctrl_a = ibc; /* without linkcmd or linkinitcmd! */
2302
2303         /* initially come up waiting for TS1, without sending anything. */
2304         val = ppd->cpspec->ibcctrl_a | (QLOGIC_IB_IBCC_LINKINITCMD_DISABLE <<
2305                 QLOGIC_IB_IBCC_LINKINITCMD_SHIFT);
2306
2307         /*
2308          * Reset the PCS interface to the serdes (and also ibc, which is still
2309          * in reset from above).  Writes new value of ibcctrl_a as last step.
2310          */
2311         qib_7322_mini_pcs_reset(ppd);
2312         qib_write_kreg(dd, kr_scratch, 0ULL);
2313
2314         if (!ppd->cpspec->ibcctrl_b) {
2315                 unsigned lse = ppd->link_speed_enabled;
2316
2317                 /*
2318                  * Not on re-init after reset, establish shadow
2319                  * and force initial config.
2320                  */
2321                 ppd->cpspec->ibcctrl_b = qib_read_kreg_port(ppd,
2322                                                              krp_ibcctrl_b);
2323                 ppd->cpspec->ibcctrl_b &= ~(IBA7322_IBC_SPEED_QDR |
2324                                 IBA7322_IBC_SPEED_DDR |
2325                                 IBA7322_IBC_SPEED_SDR |
2326                                 IBA7322_IBC_WIDTH_AUTONEG |
2327                                 SYM_MASK(IBCCtrlB_0, IB_LANE_REV_SUPPORTED));
2328                 if (lse & (lse - 1)) /* Muliple speeds enabled */
2329                         ppd->cpspec->ibcctrl_b |=
2330                                 (lse << IBA7322_IBC_SPEED_LSB) |
2331                                 IBA7322_IBC_IBTA_1_2_MASK |
2332                                 IBA7322_IBC_MAX_SPEED_MASK;
2333                 else
2334                         ppd->cpspec->ibcctrl_b |= (lse == QIB_IB_QDR) ?
2335                                 IBA7322_IBC_SPEED_QDR |
2336                                  IBA7322_IBC_IBTA_1_2_MASK :
2337                                 (lse == QIB_IB_DDR) ?
2338                                         IBA7322_IBC_SPEED_DDR :
2339                                         IBA7322_IBC_SPEED_SDR;
2340                 if ((ppd->link_width_enabled & (IB_WIDTH_1X | IB_WIDTH_4X)) ==
2341                     (IB_WIDTH_1X | IB_WIDTH_4X))
2342                         ppd->cpspec->ibcctrl_b |= IBA7322_IBC_WIDTH_AUTONEG;
2343                 else
2344                         ppd->cpspec->ibcctrl_b |=
2345                                 ppd->link_width_enabled == IB_WIDTH_4X ?
2346                                 IBA7322_IBC_WIDTH_4X_ONLY :
2347                                 IBA7322_IBC_WIDTH_1X_ONLY;
2348
2349                 /* always enable these on driver reload, not sticky */
2350                 ppd->cpspec->ibcctrl_b |= (IBA7322_IBC_RXPOL_MASK |
2351                         IBA7322_IBC_HRTBT_MASK);
2352         }
2353         qib_write_kreg_port(ppd, krp_ibcctrl_b, ppd->cpspec->ibcctrl_b);
2354
2355         /* setup so we have more time at CFGTEST to change H1 */
2356         val = qib_read_kreg_port(ppd, krp_ibcctrl_c);
2357         val &= ~SYM_MASK(IBCCtrlC_0, IB_FRONT_PORCH);
2358         val |= 0xfULL << SYM_LSB(IBCCtrlC_0, IB_FRONT_PORCH);
2359         qib_write_kreg_port(ppd, krp_ibcctrl_c, val);
2360
2361         serdes_7322_init(ppd);
2362
2363         guid = be64_to_cpu(ppd->guid);
2364         if (!guid) {
2365                 if (dd->base_guid)
2366                         guid = be64_to_cpu(dd->base_guid) + ppd->port - 1;
2367                 ppd->guid = cpu_to_be64(guid);
2368         }
2369
2370         qib_write_kreg_port(ppd, krp_hrtbt_guid, guid);
2371         /* write to chip to prevent back-to-back writes of ibc reg */
2372         qib_write_kreg(dd, kr_scratch, 0);
2373
2374         /* Enable port */
2375         ppd->cpspec->ibcctrl_a |= SYM_MASK(IBCCtrlA_0, IBLinkEn);
2376         set_vls(ppd);
2377
2378         /* be paranoid against later code motion, etc. */
2379         spin_lock_irqsave(&dd->cspec->rcvmod_lock, flags);
2380         ppd->p_rcvctrl |= SYM_MASK(RcvCtrl_0, RcvIBPortEnable);
2381         qib_write_kreg_port(ppd, krp_rcvctrl, ppd->p_rcvctrl);
2382         spin_unlock_irqrestore(&dd->cspec->rcvmod_lock, flags);
2383
2384         /* Also enable IBSTATUSCHG interrupt.  */
2385         val = qib_read_kreg_port(ppd, krp_errmask);
2386         qib_write_kreg_port(ppd, krp_errmask,
2387                 val | ERR_MASK_N(IBStatusChanged));
2388
2389         /* Always zero until we start messing with SerDes for real */
2390         return ret;
2391 }
2392
2393 /**
2394  * qib_7322_quiet_serdes - set serdes to txidle
2395  * @dd: the qlogic_ib device
2396  * Called when driver is being unloaded
2397  */
2398 static void qib_7322_mini_quiet_serdes(struct qib_pportdata *ppd)
2399 {
2400         u64 val;
2401         unsigned long flags;
2402
2403         qib_set_ib_7322_lstate(ppd, 0, QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
2404
2405         spin_lock_irqsave(&ppd->lflags_lock, flags);
2406         ppd->lflags &= ~QIBL_IB_AUTONEG_INPROG;
2407         spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2408         wake_up(&ppd->cpspec->autoneg_wait);
2409         cancel_delayed_work_sync(&ppd->cpspec->autoneg_work);
2410         if (ppd->dd->cspec->r1)
2411                 cancel_delayed_work_sync(&ppd->cpspec->ipg_work);
2412
2413         ppd->cpspec->chase_end = 0;
2414         if (ppd->cpspec->chase_timer.data) /* if initted */
2415                 del_timer_sync(&ppd->cpspec->chase_timer);
2416
2417         /*
2418          * Despite the name, actually disables IBC as well. Do it when
2419          * we are as sure as possible that no more packets can be
2420          * received, following the down and the PCS reset.
2421          * The actual disabling happens in qib_7322_mini_pci_reset(),
2422          * along with the PCS being reset.
2423          */
2424         ppd->cpspec->ibcctrl_a &= ~SYM_MASK(IBCCtrlA_0, IBLinkEn);
2425         qib_7322_mini_pcs_reset(ppd);
2426
2427         /*
2428          * Update the adjusted counters so the adjustment persists
2429          * across driver reload.
2430          */
2431         if (ppd->cpspec->ibsymdelta || ppd->cpspec->iblnkerrdelta ||
2432             ppd->cpspec->ibdeltainprog || ppd->cpspec->iblnkdowndelta) {
2433                 struct qib_devdata *dd = ppd->dd;
2434                 u64 diagc;
2435
2436                 /* enable counter writes */
2437                 diagc = qib_read_kreg64(dd, kr_hwdiagctrl);
2438                 qib_write_kreg(dd, kr_hwdiagctrl,
2439                                diagc | SYM_MASK(HwDiagCtrl, CounterWrEnable));
2440
2441                 if (ppd->cpspec->ibsymdelta || ppd->cpspec->ibdeltainprog) {
2442                         val = read_7322_creg32_port(ppd, crp_ibsymbolerr);
2443                         if (ppd->cpspec->ibdeltainprog)
2444                                 val -= val - ppd->cpspec->ibsymsnap;
2445                         val -= ppd->cpspec->ibsymdelta;
2446                         write_7322_creg_port(ppd, crp_ibsymbolerr, val);
2447                 }
2448                 if (ppd->cpspec->iblnkerrdelta || ppd->cpspec->ibdeltainprog) {
2449                         val = read_7322_creg32_port(ppd, crp_iblinkerrrecov);
2450                         if (ppd->cpspec->ibdeltainprog)
2451                                 val -= val - ppd->cpspec->iblnkerrsnap;
2452                         val -= ppd->cpspec->iblnkerrdelta;
2453                         write_7322_creg_port(ppd, crp_iblinkerrrecov, val);
2454                 }
2455                 if (ppd->cpspec->iblnkdowndelta) {
2456                         val = read_7322_creg32_port(ppd, crp_iblinkdown);
2457                         val += ppd->cpspec->iblnkdowndelta;
2458                         write_7322_creg_port(ppd, crp_iblinkdown, val);
2459                 }
2460                 /*
2461                  * No need to save ibmalfdelta since IB perfcounters
2462                  * are cleared on driver reload.
2463                  */
2464
2465                 /* and disable counter writes */
2466                 qib_write_kreg(dd, kr_hwdiagctrl, diagc);
2467         }
2468 }
2469
2470 /**
2471  * qib_setup_7322_setextled - set the state of the two external LEDs
2472  * @ppd: physical port on the qlogic_ib device
2473  * @on: whether the link is up or not
2474  *
2475  * The exact combo of LEDs if on is true is determined by looking
2476  * at the ibcstatus.
2477  *
2478  * These LEDs indicate the physical and logical state of IB link.
2479  * For this chip (at least with recommended board pinouts), LED1
2480  * is Yellow (logical state) and LED2 is Green (physical state),
2481  *
2482  * Note:  We try to match the Mellanox HCA LED behavior as best
2483  * we can.  Green indicates physical link state is OK (something is
2484  * plugged in, and we can train).
2485  * Amber indicates the link is logically up (ACTIVE).
2486  * Mellanox further blinks the amber LED to indicate data packet
2487  * activity, but we have no hardware support for that, so it would
2488  * require waking up every 10-20 msecs and checking the counters
2489  * on the chip, and then turning the LED off if appropriate.  That's
2490  * visible overhead, so not something we will do.
2491  */
2492 static void qib_setup_7322_setextled(struct qib_pportdata *ppd, u32 on)
2493 {
2494         struct qib_devdata *dd = ppd->dd;
2495         u64 extctl, ledblink = 0, val;
2496         unsigned long flags;
2497         int yel, grn;
2498
2499         /*
2500          * The diags use the LED to indicate diag info, so we leave
2501          * the external LED alone when the diags are running.
2502          */
2503         if (dd->diag_client)
2504                 return;
2505
2506         /* Allow override of LED display for, e.g. Locating system in rack */
2507         if (ppd->led_override) {
2508                 grn = (ppd->led_override & QIB_LED_PHYS);
2509                 yel = (ppd->led_override & QIB_LED_LOG);
2510         } else if (on) {
2511                 val = qib_read_kreg_port(ppd, krp_ibcstatus_a);
2512                 grn = qib_7322_phys_portstate(val) ==
2513                         IB_PHYSPORTSTATE_LINKUP;
2514                 yel = qib_7322_iblink_state(val) == IB_PORT_ACTIVE;
2515         } else {
2516                 grn = 0;
2517                 yel = 0;
2518         }
2519
2520         spin_lock_irqsave(&dd->cspec->gpio_lock, flags);
2521         extctl = dd->cspec->extctrl & (ppd->port == 1 ?
2522                 ~ExtLED_IB1_MASK : ~ExtLED_IB2_MASK);
2523         if (grn) {
2524                 extctl |= ppd->port == 1 ? ExtLED_IB1_GRN : ExtLED_IB2_GRN;
2525                 /*
2526                  * Counts are in chip clock (4ns) periods.
2527                  * This is 1/16 sec (66.6ms) on,
2528                  * 3/16 sec (187.5 ms) off, with packets rcvd.
2529                  */
2530                 ledblink = ((66600 * 1000UL / 4) << IBA7322_LEDBLINK_ON_SHIFT) |
2531                         ((187500 * 1000UL / 4) << IBA7322_LEDBLINK_OFF_SHIFT);
2532         }
2533         if (yel)
2534                 extctl |= ppd->port == 1 ? ExtLED_IB1_YEL : ExtLED_IB2_YEL;
2535         dd->cspec->extctrl = extctl;
2536         qib_write_kreg(dd, kr_extctrl, dd->cspec->extctrl);
2537         spin_unlock_irqrestore(&dd->cspec->gpio_lock, flags);
2538
2539         if (ledblink) /* blink the LED on packet receive */
2540                 qib_write_kreg_port(ppd, krp_rcvpktledcnt, ledblink);
2541 }
2542
2543 /*
2544  * Disable MSIx interrupt if enabled, call generic MSIx code
2545  * to cleanup, and clear pending MSIx interrupts.
2546  * Used for fallback to INTx, after reset, and when MSIx setup fails.
2547  */
2548 static void qib_7322_nomsix(struct qib_devdata *dd)
2549 {
2550         u64 intgranted;
2551         int n;
2552
2553         dd->cspec->main_int_mask = ~0ULL;
2554         n = dd->cspec->num_msix_entries;
2555         if (n) {
2556                 int i;
2557
2558                 dd->cspec->num_msix_entries = 0;
2559                 for (i = 0; i < n; i++)
2560                         free_irq(dd->cspec->msix_entries[i].vector,
2561                                  dd->cspec->msix_arg[i]);
2562                 qib_nomsix(dd);
2563         }
2564         /* make sure no MSIx interrupts are left pending */
2565         intgranted = qib_read_kreg64(dd, kr_intgranted);
2566         if (intgranted)
2567                 qib_write_kreg(dd, kr_intgranted, intgranted);
2568 }
2569
2570 static void qib_7322_free_irq(struct qib_devdata *dd)
2571 {
2572         if (dd->cspec->irq) {
2573                 free_irq(dd->cspec->irq, dd);
2574                 dd->cspec->irq = 0;
2575         }
2576         qib_7322_nomsix(dd);
2577 }
2578
2579 static void qib_setup_7322_cleanup(struct qib_devdata *dd)
2580 {
2581         int i;
2582
2583         qib_7322_free_irq(dd);
2584         kfree(dd->cspec->cntrs);
2585         kfree(dd->cspec->sendchkenable);
2586         kfree(dd->cspec->sendgrhchk);
2587         kfree(dd->cspec->sendibchk);
2588         kfree(dd->cspec->msix_entries);
2589         kfree(dd->cspec->msix_arg);
2590         for (i = 0; i < dd->num_pports; i++) {
2591                 unsigned long flags;
2592                 u32 mask = QSFP_GPIO_MOD_PRS_N |
2593                         (QSFP_GPIO_MOD_PRS_N << QSFP_GPIO_PORT2_SHIFT);
2594
2595                 kfree(dd->pport[i].cpspec->portcntrs);
2596                 if (dd->flags & QIB_HAS_QSFP) {
2597                         spin_lock_irqsave(&dd->cspec->gpio_lock, flags);
2598                         dd->cspec->gpio_mask &= ~mask;
2599                         qib_write_kreg(dd, kr_gpio_mask, dd->cspec->gpio_mask);
2600                         spin_unlock_irqrestore(&dd->cspec->gpio_lock, flags);
2601                         qib_qsfp_deinit(&dd->pport[i].cpspec->qsfp_data);
2602                 }
2603                 if (dd->pport[i].ibport_data.smi_ah)
2604                         ib_destroy_ah(&dd->pport[i].ibport_data.smi_ah->ibah);
2605         }
2606 }
2607
2608 /* handle SDMA interrupts */
2609 static void sdma_7322_intr(struct qib_devdata *dd, u64 istat)
2610 {
2611         struct qib_pportdata *ppd0 = &dd->pport[0];
2612         struct qib_pportdata *ppd1 = &dd->pport[1];
2613         u64 intr0 = istat & (INT_MASK_P(SDma, 0) |
2614                 INT_MASK_P(SDmaIdle, 0) | INT_MASK_P(SDmaProgress, 0));
2615         u64 intr1 = istat & (INT_MASK_P(SDma, 1) |
2616                 INT_MASK_P(SDmaIdle, 1) | INT_MASK_P(SDmaProgress, 1));
2617
2618         if (intr0)
2619                 qib_sdma_intr(ppd0);
2620         if (intr1)
2621                 qib_sdma_intr(ppd1);
2622
2623         if (istat & INT_MASK_PM(SDmaCleanupDone, 0))
2624                 qib_sdma_process_event(ppd0, qib_sdma_event_e20_hw_started);
2625         if (istat & INT_MASK_PM(SDmaCleanupDone, 1))
2626                 qib_sdma_process_event(ppd1, qib_sdma_event_e20_hw_started);
2627 }
2628
2629 /*
2630  * Set or clear the Send buffer available interrupt enable bit.
2631  */
2632 static void qib_wantpiobuf_7322_intr(struct qib_devdata *dd, u32 needint)
2633 {
2634         unsigned long flags;
2635
2636         spin_lock_irqsave(&dd->sendctrl_lock, flags);
2637         if (needint)
2638                 dd->sendctrl |= SYM_MASK(SendCtrl, SendIntBufAvail);
2639         else
2640                 dd->sendctrl &= ~SYM_MASK(SendCtrl, SendIntBufAvail);
2641         qib_write_kreg(dd, kr_sendctrl, dd->sendctrl);
2642         qib_write_kreg(dd, kr_scratch, 0ULL);
2643         spin_unlock_irqrestore(&dd->sendctrl_lock, flags);
2644 }
2645
2646 /*
2647  * Somehow got an interrupt with reserved bits set in interrupt status.
2648  * Print a message so we know it happened, then clear them.
2649  * keep mainline interrupt handler cache-friendly
2650  */
2651 static noinline void unknown_7322_ibits(struct qib_devdata *dd, u64 istat)
2652 {
2653         u64 kills;
2654         char msg[128];
2655
2656         kills = istat & ~QIB_I_BITSEXTANT;
2657         qib_dev_err(dd, "Clearing reserved interrupt(s) 0x%016llx:"
2658                     " %s\n", (unsigned long long) kills, msg);
2659         qib_write_kreg(dd, kr_intmask, (dd->cspec->int_enable_mask & ~kills));
2660 }
2661
2662 /* keep mainline interrupt handler cache-friendly */
2663 static noinline void unknown_7322_gpio_intr(struct qib_devdata *dd)
2664 {
2665         u32 gpiostatus;
2666         int handled = 0;
2667         int pidx;
2668
2669         /*
2670          * Boards for this chip currently don't use GPIO interrupts,
2671          * so clear by writing GPIOstatus to GPIOclear, and complain
2672          * to developer.  To avoid endless repeats, clear
2673          * the bits in the mask, since there is some kind of
2674          * programming error or chip problem.
2675          */
2676         gpiostatus = qib_read_kreg32(dd, kr_gpio_status);
2677         /*
2678          * In theory, writing GPIOstatus to GPIOclear could
2679          * have a bad side-effect on some diagnostic that wanted
2680          * to poll for a status-change, but the various shadows
2681          * make that problematic at best. Diags will just suppress
2682          * all GPIO interrupts during such tests.
2683          */
2684         qib_write_kreg(dd, kr_gpio_clear, gpiostatus);
2685         /*
2686          * Check for QSFP MOD_PRS changes
2687          * only works for single port if IB1 != pidx1
2688          */
2689         for (pidx = 0; pidx < dd->num_pports && (dd->flags & QIB_HAS_QSFP);
2690              ++pidx) {
2691                 struct qib_pportdata *ppd;
2692                 struct qib_qsfp_data *qd;
2693                 u32 mask;
2694                 if (!dd->pport[pidx].link_speed_supported)
2695                         continue;
2696                 mask = QSFP_GPIO_MOD_PRS_N;
2697                 ppd = dd->pport + pidx;
2698                 mask <<= (QSFP_GPIO_PORT2_SHIFT * ppd->hw_pidx);
2699                 if (gpiostatus & dd->cspec->gpio_mask & mask) {
2700                         u64 pins;
2701                         qd = &ppd->cpspec->qsfp_data;
2702                         gpiostatus &= ~mask;
2703                         pins = qib_read_kreg64(dd, kr_extstatus);
2704                         pins >>= SYM_LSB(EXTStatus, GPIOIn);
2705                         if (!(pins & mask)) {
2706                                 ++handled;
2707                                 qd->t_insert = get_jiffies_64();
2708                                 queue_work(ib_wq, &qd->work);
2709                         }
2710                 }
2711         }
2712
2713         if (gpiostatus && !handled) {
2714                 const u32 mask = qib_read_kreg32(dd, kr_gpio_mask);
2715                 u32 gpio_irq = mask & gpiostatus;
2716
2717                 /*
2718                  * Clear any troublemakers, and update chip from shadow
2719                  */
2720                 dd->cspec->gpio_mask &= ~gpio_irq;
2721                 qib_write_kreg(dd, kr_gpio_mask, dd->cspec->gpio_mask);
2722         }
2723 }
2724
2725 /*
2726  * Handle errors and unusual events first, separate function
2727  * to improve cache hits for fast path interrupt handling.
2728  */
2729 static noinline void unlikely_7322_intr(struct qib_devdata *dd, u64 istat)
2730 {
2731         if (istat & ~QIB_I_BITSEXTANT)
2732                 unknown_7322_ibits(dd, istat);
2733         if (istat & QIB_I_GPIO)
2734                 unknown_7322_gpio_intr(dd);
2735         if (istat & QIB_I_C_ERROR)
2736                 handle_7322_errors(dd);
2737         if (istat & INT_MASK_P(Err, 0) && dd->rcd[0])
2738                 handle_7322_p_errors(dd->rcd[0]->ppd);
2739         if (istat & INT_MASK_P(Err, 1) && dd->rcd[1])
2740                 handle_7322_p_errors(dd->rcd[1]->ppd);
2741 }
2742
2743 /*
2744  * Dynamically adjust the rcv int timeout for a context based on incoming
2745  * packet rate.
2746  */
2747 static void adjust_rcv_timeout(struct qib_ctxtdata *rcd, int npkts)
2748 {
2749         struct qib_devdata *dd = rcd->dd;
2750         u32 timeout = dd->cspec->rcvavail_timeout[rcd->ctxt];
2751
2752         /*
2753          * Dynamically adjust idle timeout on chip
2754          * based on number of packets processed.
2755          */
2756         if (npkts < rcv_int_count && timeout > 2)
2757                 timeout >>= 1;
2758         else if (npkts >= rcv_int_count && timeout < rcv_int_timeout)
2759                 timeout = min(timeout << 1, rcv_int_timeout);
2760         else
2761                 return;
2762
2763         dd->cspec->rcvavail_timeout[rcd->ctxt] = timeout;
2764         qib_write_kreg(dd, kr_rcvavailtimeout + rcd->ctxt, timeout);
2765 }
2766
2767 /*
2768  * This is the main interrupt handler.
2769  * It will normally only be used for low frequency interrupts but may
2770  * have to handle all interrupts if INTx is enabled or fewer than normal
2771  * MSIx interrupts were allocated.
2772  * This routine should ignore the interrupt bits for any of the
2773  * dedicated MSIx handlers.
2774  */
2775 static irqreturn_t qib_7322intr(int irq, void *data)
2776 {
2777         struct qib_devdata *dd = data;
2778         irqreturn_t ret;
2779         u64 istat;
2780         u64 ctxtrbits;
2781         u64 rmask;
2782         unsigned i;
2783         u32 npkts;
2784
2785         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT) {
2786                 /*
2787                  * This return value is not great, but we do not want the
2788                  * interrupt core code to remove our interrupt handler
2789                  * because we don't appear to be handling an interrupt
2790                  * during a chip reset.
2791                  */
2792                 ret = IRQ_HANDLED;
2793                 goto bail;
2794         }
2795
2796         istat = qib_read_kreg64(dd, kr_intstatus);
2797
2798         if (unlikely(istat == ~0ULL)) {
2799                 qib_bad_intrstatus(dd);
2800                 qib_dev_err(dd, "Interrupt status all f's, skipping\n");
2801                 /* don't know if it was our interrupt or not */
2802                 ret = IRQ_NONE;
2803                 goto bail;
2804         }
2805
2806         istat &= dd->cspec->main_int_mask;
2807         if (unlikely(!istat)) {
2808                 /* already handled, or shared and not us */
2809                 ret = IRQ_NONE;
2810                 goto bail;
2811         }
2812
2813         qib_stats.sps_ints++;
2814         if (dd->int_counter != (u32) -1)
2815                 dd->int_counter++;
2816
2817         /* handle "errors" of various kinds first, device ahead of port */
2818         if (unlikely(istat & (~QIB_I_BITSEXTANT | QIB_I_GPIO |
2819                               QIB_I_C_ERROR | INT_MASK_P(Err, 0) |
2820                               INT_MASK_P(Err, 1))))
2821                 unlikely_7322_intr(dd, istat);
2822
2823         /*
2824          * Clear the interrupt bits we found set, relatively early, so we
2825          * "know" know the chip will have seen this by the time we process
2826          * the queue, and will re-interrupt if necessary.  The processor
2827          * itself won't take the interrupt again until we return.
2828          */
2829         qib_write_kreg(dd, kr_intclear, istat);
2830
2831         /*
2832          * Handle kernel receive queues before checking for pio buffers
2833          * available since receives can overflow; piobuf waiters can afford
2834          * a few extra cycles, since they were waiting anyway.
2835          */
2836         ctxtrbits = istat & (QIB_I_RCVAVAIL_MASK | QIB_I_RCVURG_MASK);
2837         if (ctxtrbits) {
2838                 rmask = (1ULL << QIB_I_RCVAVAIL_LSB) |
2839                         (1ULL << QIB_I_RCVURG_LSB);
2840                 for (i = 0; i < dd->first_user_ctxt; i++) {
2841                         if (ctxtrbits & rmask) {
2842                                 ctxtrbits &= ~rmask;
2843                                 if (dd->rcd[i]) {
2844                                         qib_kreceive(dd->rcd[i], NULL, &npkts);
2845                                 }
2846                         }
2847                         rmask <<= 1;
2848                 }
2849                 if (ctxtrbits) {
2850                         ctxtrbits = (ctxtrbits >> QIB_I_RCVAVAIL_LSB) |
2851                                 (ctxtrbits >> QIB_I_RCVURG_LSB);
2852                         qib_handle_urcv(dd, ctxtrbits);
2853                 }
2854         }
2855
2856         if (istat & (QIB_I_P_SDMAINT(0) | QIB_I_P_SDMAINT(1)))
2857                 sdma_7322_intr(dd, istat);
2858
2859         if ((istat & QIB_I_SPIOBUFAVAIL) && (dd->flags & QIB_INITTED))
2860                 qib_ib_piobufavail(dd);
2861
2862         ret = IRQ_HANDLED;
2863 bail:
2864         return ret;
2865 }
2866
2867 /*
2868  * Dedicated receive packet available interrupt handler.
2869  */
2870 static irqreturn_t qib_7322pintr(int irq, void *data)
2871 {
2872         struct qib_ctxtdata *rcd = data;
2873         struct qib_devdata *dd = rcd->dd;
2874         u32 npkts;
2875
2876         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2877                 /*
2878                  * This return value is not great, but we do not want the
2879                  * interrupt core code to remove our interrupt handler
2880                  * because we don't appear to be handling an interrupt
2881                  * during a chip reset.
2882                  */
2883                 return IRQ_HANDLED;
2884
2885         qib_stats.sps_ints++;
2886         if (dd->int_counter != (u32) -1)
2887                 dd->int_counter++;
2888
2889         /* Clear the interrupt bit we expect to be set. */
2890         qib_write_kreg(dd, kr_intclear, ((1ULL << QIB_I_RCVAVAIL_LSB) |
2891                        (1ULL << QIB_I_RCVURG_LSB)) << rcd->ctxt);
2892
2893         qib_kreceive(rcd, NULL, &npkts);
2894
2895         return IRQ_HANDLED;
2896 }
2897
2898 /*
2899  * Dedicated Send buffer available interrupt handler.
2900  */
2901 static irqreturn_t qib_7322bufavail(int irq, void *data)
2902 {
2903         struct qib_devdata *dd = data;
2904
2905         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2906                 /*
2907                  * This return value is not great, but we do not want the
2908                  * interrupt core code to remove our interrupt handler
2909                  * because we don't appear to be handling an interrupt
2910                  * during a chip reset.
2911                  */
2912                 return IRQ_HANDLED;
2913
2914         qib_stats.sps_ints++;
2915         if (dd->int_counter != (u32) -1)
2916                 dd->int_counter++;
2917
2918         /* Clear the interrupt bit we expect to be set. */
2919         qib_write_kreg(dd, kr_intclear, QIB_I_SPIOBUFAVAIL);
2920
2921         /* qib_ib_piobufavail() will clear the want PIO interrupt if needed */
2922         if (dd->flags & QIB_INITTED)
2923                 qib_ib_piobufavail(dd);
2924         else
2925                 qib_wantpiobuf_7322_intr(dd, 0);
2926
2927         return IRQ_HANDLED;
2928 }
2929
2930 /*
2931  * Dedicated Send DMA interrupt handler.
2932  */
2933 static irqreturn_t sdma_intr(int irq, void *data)
2934 {
2935         struct qib_pportdata *ppd = data;
2936         struct qib_devdata *dd = ppd->dd;
2937
2938         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2939                 /*
2940                  * This return value is not great, but we do not want the
2941                  * interrupt core code to remove our interrupt handler
2942                  * because we don't appear to be handling an interrupt
2943                  * during a chip reset.
2944                  */
2945                 return IRQ_HANDLED;
2946
2947         qib_stats.sps_ints++;
2948         if (dd->int_counter != (u32) -1)
2949                 dd->int_counter++;
2950
2951         /* Clear the interrupt bit we expect to be set. */
2952         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
2953                        INT_MASK_P(SDma, 1) : INT_MASK_P(SDma, 0));
2954         qib_sdma_intr(ppd);
2955
2956         return IRQ_HANDLED;
2957 }
2958
2959 /*
2960  * Dedicated Send DMA idle interrupt handler.
2961  */
2962 static irqreturn_t sdma_idle_intr(int irq, void *data)
2963 {
2964         struct qib_pportdata *ppd = data;
2965         struct qib_devdata *dd = ppd->dd;
2966
2967         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2968                 /*
2969                  * This return value is not great, but we do not want the
2970                  * interrupt core code to remove our interrupt handler
2971                  * because we don't appear to be handling an interrupt
2972                  * during a chip reset.
2973                  */
2974                 return IRQ_HANDLED;
2975
2976         qib_stats.sps_ints++;
2977         if (dd->int_counter != (u32) -1)
2978                 dd->int_counter++;
2979
2980         /* Clear the interrupt bit we expect to be set. */
2981         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
2982                        INT_MASK_P(SDmaIdle, 1) : INT_MASK_P(SDmaIdle, 0));
2983         qib_sdma_intr(ppd);
2984
2985         return IRQ_HANDLED;
2986 }
2987
2988 /*
2989  * Dedicated Send DMA progress interrupt handler.
2990  */
2991 static irqreturn_t sdma_progress_intr(int irq, void *data)
2992 {
2993         struct qib_pportdata *ppd = data;
2994         struct qib_devdata *dd = ppd->dd;
2995
2996         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2997                 /*
2998                  * This return value is not great, but we do not want the
2999                  * interrupt core code to remove our interrupt handler
3000                  * because we don't appear to be handling an interrupt
3001                  * during a chip reset.
3002                  */
3003                 return IRQ_HANDLED;
3004
3005         qib_stats.sps_ints++;
3006         if (dd->int_counter != (u32) -1)
3007                 dd->int_counter++;
3008
3009         /* Clear the interrupt bit we expect to be set. */
3010         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
3011                        INT_MASK_P(SDmaProgress, 1) :
3012                        INT_MASK_P(SDmaProgress, 0));
3013         qib_sdma_intr(ppd);
3014
3015         return IRQ_HANDLED;
3016 }
3017
3018 /*
3019  * Dedicated Send DMA cleanup interrupt handler.
3020  */
3021 static irqreturn_t sdma_cleanup_intr(int irq, void *data)
3022 {
3023         struct qib_pportdata *ppd = data;
3024         struct qib_devdata *dd = ppd->dd;
3025
3026         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
3027                 /*
3028                  * This return value is not great, but we do not want the
3029                  * interrupt core code to remove our interrupt handler
3030                  * because we don't appear to be handling an interrupt
3031                  * during a chip reset.