44180c643aa45d9c1f052b4924c969f735078c13
[pandora-kernel.git] / drivers / infiniband / hw / qib / qib_iba7322.c
1 /*
2  * Copyright (c) 2008, 2009, 2010 QLogic Corporation. All rights reserved.
3  *
4  * This software is available to you under a choice of one of two
5  * licenses.  You may choose to be licensed under the terms of the GNU
6  * General Public License (GPL) Version 2, available from the file
7  * COPYING in the main directory of this source tree, or the
8  * OpenIB.org BSD license below:
9  *
10  *     Redistribution and use in source and binary forms, with or
11  *     without modification, are permitted provided that the following
12  *     conditions are met:
13  *
14  *      - Redistributions of source code must retain the above
15  *        copyright notice, this list of conditions and the following
16  *        disclaimer.
17  *
18  *      - Redistributions in binary form must reproduce the above
19  *        copyright notice, this list of conditions and the following
20  *        disclaimer in the documentation and/or other materials
21  *        provided with the distribution.
22  *
23  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
24  * EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
25  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
26  * NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
27  * BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
28  * ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
29  * CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
30  * SOFTWARE.
31  */
32
33 /*
34  * This file contains all of the code that is specific to the
35  * InfiniPath 7322 chip
36  */
37
38 #include <linux/interrupt.h>
39 #include <linux/pci.h>
40 #include <linux/delay.h>
41 #include <linux/io.h>
42 #include <linux/jiffies.h>
43 #include <linux/module.h>
44 #include <rdma/ib_verbs.h>
45 #include <rdma/ib_smi.h>
46
47 #include "qib.h"
48 #include "qib_7322_regs.h"
49 #include "qib_qsfp.h"
50
51 #include "qib_mad.h"
52
53 static void qib_setup_7322_setextled(struct qib_pportdata *, u32);
54 static void qib_7322_handle_hwerrors(struct qib_devdata *, char *, size_t);
55 static void sendctrl_7322_mod(struct qib_pportdata *ppd, u32 op);
56 static irqreturn_t qib_7322intr(int irq, void *data);
57 static irqreturn_t qib_7322bufavail(int irq, void *data);
58 static irqreturn_t sdma_intr(int irq, void *data);
59 static irqreturn_t sdma_idle_intr(int irq, void *data);
60 static irqreturn_t sdma_progress_intr(int irq, void *data);
61 static irqreturn_t sdma_cleanup_intr(int irq, void *data);
62 static void qib_7322_txchk_change(struct qib_devdata *, u32, u32, u32,
63                                   struct qib_ctxtdata *rcd);
64 static u8 qib_7322_phys_portstate(u64);
65 static u32 qib_7322_iblink_state(u64);
66 static void qib_set_ib_7322_lstate(struct qib_pportdata *ppd, u16 linkcmd,
67                                    u16 linitcmd);
68 static void force_h1(struct qib_pportdata *);
69 static void adj_tx_serdes(struct qib_pportdata *);
70 static u32 qib_7322_setpbc_control(struct qib_pportdata *, u32, u8, u8);
71 static void qib_7322_mini_pcs_reset(struct qib_pportdata *);
72
73 static u32 ahb_mod(struct qib_devdata *, int, int, int, u32, u32);
74 static void ibsd_wr_allchans(struct qib_pportdata *, int, unsigned, unsigned);
75 static void serdes_7322_los_enable(struct qib_pportdata *, int);
76 static int serdes_7322_init_old(struct qib_pportdata *);
77 static int serdes_7322_init_new(struct qib_pportdata *);
78
79 #define BMASK(msb, lsb) (((1 << ((msb) + 1 - (lsb))) - 1) << (lsb))
80
81 /* LE2 serdes values for different cases */
82 #define LE2_DEFAULT 5
83 #define LE2_5m 4
84 #define LE2_QME 0
85
86 /* Below is special-purpose, so only really works for the IB SerDes blocks. */
87 #define IBSD(hw_pidx) (hw_pidx + 2)
88
89 /* these are variables for documentation and experimentation purposes */
90 static const unsigned rcv_int_timeout = 375;
91 static const unsigned rcv_int_count = 16;
92 static const unsigned sdma_idle_cnt = 64;
93
94 /* Time to stop altering Rx Equalization parameters, after link up. */
95 #define RXEQ_DISABLE_MSECS 2500
96
97 /*
98  * Number of VLs we are configured to use (to allow for more
99  * credits per vl, etc.)
100  */
101 ushort qib_num_cfg_vls = 2;
102 module_param_named(num_vls, qib_num_cfg_vls, ushort, S_IRUGO);
103 MODULE_PARM_DESC(num_vls, "Set number of Virtual Lanes to use (1-8)");
104
105 static ushort qib_chase = 1;
106 module_param_named(chase, qib_chase, ushort, S_IRUGO);
107 MODULE_PARM_DESC(chase, "Enable state chase handling");
108
109 static ushort qib_long_atten = 10; /* 10 dB ~= 5m length */
110 module_param_named(long_attenuation, qib_long_atten, ushort, S_IRUGO);
111 MODULE_PARM_DESC(long_attenuation, \
112                  "attenuation cutoff (dB) for long copper cable setup");
113
114 static ushort qib_singleport;
115 module_param_named(singleport, qib_singleport, ushort, S_IRUGO);
116 MODULE_PARM_DESC(singleport, "Use only IB port 1; more per-port buffer space");
117
118 static ushort qib_krcvq01_no_msi;
119 module_param_named(krcvq01_no_msi, qib_krcvq01_no_msi, ushort, S_IRUGO);
120 MODULE_PARM_DESC(krcvq01_no_msi, "No MSI for kctx < 2");
121
122 /*
123  * Receive header queue sizes
124  */
125 static unsigned qib_rcvhdrcnt;
126 module_param_named(rcvhdrcnt, qib_rcvhdrcnt, uint, S_IRUGO);
127 MODULE_PARM_DESC(rcvhdrcnt, "receive header count");
128
129 static unsigned qib_rcvhdrsize;
130 module_param_named(rcvhdrsize, qib_rcvhdrsize, uint, S_IRUGO);
131 MODULE_PARM_DESC(rcvhdrsize, "receive header size in 32-bit words");
132
133 static unsigned qib_rcvhdrentsize;
134 module_param_named(rcvhdrentsize, qib_rcvhdrentsize, uint, S_IRUGO);
135 MODULE_PARM_DESC(rcvhdrentsize, "receive header entry size in 32-bit words");
136
137 #define MAX_ATTEN_LEN 64 /* plenty for any real system */
138 /* for read back, default index is ~5m copper cable */
139 static char txselect_list[MAX_ATTEN_LEN] = "10";
140 static struct kparam_string kp_txselect = {
141         .string = txselect_list,
142         .maxlen = MAX_ATTEN_LEN
143 };
144 static int  setup_txselect(const char *, struct kernel_param *);
145 module_param_call(txselect, setup_txselect, param_get_string,
146                   &kp_txselect, S_IWUSR | S_IRUGO);
147 MODULE_PARM_DESC(txselect, \
148                  "Tx serdes indices (for no QSFP or invalid QSFP data)");
149
150 #define BOARD_QME7342 5
151 #define BOARD_QMH7342 6
152 #define IS_QMH(dd) (SYM_FIELD((dd)->revision, Revision, BoardID) == \
153                     BOARD_QMH7342)
154 #define IS_QME(dd) (SYM_FIELD((dd)->revision, Revision, BoardID) == \
155                     BOARD_QME7342)
156
157 #define KREG_IDX(regname)     (QIB_7322_##regname##_OFFS / sizeof(u64))
158
159 #define KREG_IBPORT_IDX(regname) ((QIB_7322_##regname##_0_OFFS / sizeof(u64)))
160
161 #define MASK_ACROSS(lsb, msb) \
162         (((1ULL << ((msb) + 1 - (lsb))) - 1) << (lsb))
163
164 #define SYM_RMASK(regname, fldname) ((u64)              \
165         QIB_7322_##regname##_##fldname##_RMASK)
166
167 #define SYM_MASK(regname, fldname) ((u64)               \
168         QIB_7322_##regname##_##fldname##_RMASK <<       \
169          QIB_7322_##regname##_##fldname##_LSB)
170
171 #define SYM_FIELD(value, regname, fldname) ((u64)       \
172         (((value) >> SYM_LSB(regname, fldname)) &       \
173          SYM_RMASK(regname, fldname)))
174
175 /* useful for things like LaFifoEmpty_0...7, TxCreditOK_0...7, etc. */
176 #define SYM_FIELD_ACROSS(value, regname, fldname, nbits) \
177         (((value) >> SYM_LSB(regname, fldname)) & MASK_ACROSS(0, nbits))
178
179 #define HWE_MASK(fldname) SYM_MASK(HwErrMask, fldname##Mask)
180 #define ERR_MASK(fldname) SYM_MASK(ErrMask, fldname##Mask)
181 #define ERR_MASK_N(fldname) SYM_MASK(ErrMask_0, fldname##Mask)
182 #define INT_MASK(fldname) SYM_MASK(IntMask, fldname##IntMask)
183 #define INT_MASK_P(fldname, port) SYM_MASK(IntMask, fldname##IntMask##_##port)
184 /* Below because most, but not all, fields of IntMask have that full suffix */
185 #define INT_MASK_PM(fldname, port) SYM_MASK(IntMask, fldname##Mask##_##port)
186
187
188 #define SYM_LSB(regname, fldname) (QIB_7322_##regname##_##fldname##_LSB)
189
190 /*
191  * the size bits give us 2^N, in KB units.  0 marks as invalid,
192  * and 7 is reserved.  We currently use only 2KB and 4KB
193  */
194 #define IBA7322_TID_SZ_SHIFT QIB_7322_RcvTIDArray0_RT_BufSize_LSB
195 #define IBA7322_TID_SZ_2K (1UL<<IBA7322_TID_SZ_SHIFT) /* 2KB */
196 #define IBA7322_TID_SZ_4K (2UL<<IBA7322_TID_SZ_SHIFT) /* 4KB */
197 #define IBA7322_TID_PA_SHIFT 11U /* TID addr in chip stored w/o low bits */
198
199 #define SendIBSLIDAssignMask \
200         QIB_7322_SendIBSLIDAssign_0_SendIBSLIDAssign_15_0_RMASK
201 #define SendIBSLMCMask \
202         QIB_7322_SendIBSLIDMask_0_SendIBSLIDMask_15_0_RMASK
203
204 #define ExtLED_IB1_YEL SYM_MASK(EXTCtrl, LEDPort0YellowOn)
205 #define ExtLED_IB1_GRN SYM_MASK(EXTCtrl, LEDPort0GreenOn)
206 #define ExtLED_IB2_YEL SYM_MASK(EXTCtrl, LEDPort1YellowOn)
207 #define ExtLED_IB2_GRN SYM_MASK(EXTCtrl, LEDPort1GreenOn)
208 #define ExtLED_IB1_MASK (ExtLED_IB1_YEL | ExtLED_IB1_GRN)
209 #define ExtLED_IB2_MASK (ExtLED_IB2_YEL | ExtLED_IB2_GRN)
210
211 #define _QIB_GPIO_SDA_NUM 1
212 #define _QIB_GPIO_SCL_NUM 0
213 #define QIB_EEPROM_WEN_NUM 14
214 #define QIB_TWSI_EEPROM_DEV 0xA2 /* All Production 7322 cards. */
215
216 /* HW counter clock is at 4nsec */
217 #define QIB_7322_PSXMITWAIT_CHECK_RATE 4000
218
219 /* full speed IB port 1 only */
220 #define PORT_SPD_CAP (QIB_IB_SDR | QIB_IB_DDR | QIB_IB_QDR)
221 #define PORT_SPD_CAP_SHIFT 3
222
223 /* full speed featuremask, both ports */
224 #define DUAL_PORT_CAP (PORT_SPD_CAP | (PORT_SPD_CAP << PORT_SPD_CAP_SHIFT))
225
226 /*
227  * This file contains almost all the chip-specific register information and
228  * access functions for the FAKED QLogic InfiniPath 7322 PCI-Express chip.
229  */
230
231 /* Use defines to tie machine-generated names to lower-case names */
232 #define kr_contextcnt KREG_IDX(ContextCnt)
233 #define kr_control KREG_IDX(Control)
234 #define kr_counterregbase KREG_IDX(CntrRegBase)
235 #define kr_errclear KREG_IDX(ErrClear)
236 #define kr_errmask KREG_IDX(ErrMask)
237 #define kr_errstatus KREG_IDX(ErrStatus)
238 #define kr_extctrl KREG_IDX(EXTCtrl)
239 #define kr_extstatus KREG_IDX(EXTStatus)
240 #define kr_gpio_clear KREG_IDX(GPIOClear)
241 #define kr_gpio_mask KREG_IDX(GPIOMask)
242 #define kr_gpio_out KREG_IDX(GPIOOut)
243 #define kr_gpio_status KREG_IDX(GPIOStatus)
244 #define kr_hwdiagctrl KREG_IDX(HwDiagCtrl)
245 #define kr_debugportval KREG_IDX(DebugPortValueReg)
246 #define kr_fmask KREG_IDX(feature_mask)
247 #define kr_act_fmask KREG_IDX(active_feature_mask)
248 #define kr_hwerrclear KREG_IDX(HwErrClear)
249 #define kr_hwerrmask KREG_IDX(HwErrMask)
250 #define kr_hwerrstatus KREG_IDX(HwErrStatus)
251 #define kr_intclear KREG_IDX(IntClear)
252 #define kr_intmask KREG_IDX(IntMask)
253 #define kr_intredirect KREG_IDX(IntRedirect0)
254 #define kr_intstatus KREG_IDX(IntStatus)
255 #define kr_pagealign KREG_IDX(PageAlign)
256 #define kr_rcvavailtimeout KREG_IDX(RcvAvailTimeOut0)
257 #define kr_rcvctrl KREG_IDX(RcvCtrl) /* Common, but chip also has per-port */
258 #define kr_rcvegrbase KREG_IDX(RcvEgrBase)
259 #define kr_rcvegrcnt KREG_IDX(RcvEgrCnt)
260 #define kr_rcvhdrcnt KREG_IDX(RcvHdrCnt)
261 #define kr_rcvhdrentsize KREG_IDX(RcvHdrEntSize)
262 #define kr_rcvhdrsize KREG_IDX(RcvHdrSize)
263 #define kr_rcvtidbase KREG_IDX(RcvTIDBase)
264 #define kr_rcvtidcnt KREG_IDX(RcvTIDCnt)
265 #define kr_revision KREG_IDX(Revision)
266 #define kr_scratch KREG_IDX(Scratch)
267 #define kr_sendbuffererror KREG_IDX(SendBufErr0) /* and base for 1 and 2 */
268 #define kr_sendcheckmask KREG_IDX(SendCheckMask0) /* and 1, 2 */
269 #define kr_sendctrl KREG_IDX(SendCtrl)
270 #define kr_sendgrhcheckmask KREG_IDX(SendGRHCheckMask0) /* and 1, 2 */
271 #define kr_sendibpktmask KREG_IDX(SendIBPacketMask0) /* and 1, 2 */
272 #define kr_sendpioavailaddr KREG_IDX(SendBufAvailAddr)
273 #define kr_sendpiobufbase KREG_IDX(SendBufBase)
274 #define kr_sendpiobufcnt KREG_IDX(SendBufCnt)
275 #define kr_sendpiosize KREG_IDX(SendBufSize)
276 #define kr_sendregbase KREG_IDX(SendRegBase)
277 #define kr_sendbufavail0 KREG_IDX(SendBufAvail0)
278 #define kr_userregbase KREG_IDX(UserRegBase)
279 #define kr_intgranted KREG_IDX(Int_Granted)
280 #define kr_vecclr_wo_int KREG_IDX(vec_clr_without_int)
281 #define kr_intblocked KREG_IDX(IntBlocked)
282 #define kr_r_access KREG_IDX(SPC_JTAG_ACCESS_REG)
283
284 /*
285  * per-port kernel registers.  Access only with qib_read_kreg_port()
286  * or qib_write_kreg_port()
287  */
288 #define krp_errclear KREG_IBPORT_IDX(ErrClear)
289 #define krp_errmask KREG_IBPORT_IDX(ErrMask)
290 #define krp_errstatus KREG_IBPORT_IDX(ErrStatus)
291 #define krp_highprio_0 KREG_IBPORT_IDX(HighPriority0)
292 #define krp_highprio_limit KREG_IBPORT_IDX(HighPriorityLimit)
293 #define krp_hrtbt_guid KREG_IBPORT_IDX(HRTBT_GUID)
294 #define krp_ib_pcsconfig KREG_IBPORT_IDX(IBPCSConfig)
295 #define krp_ibcctrl_a KREG_IBPORT_IDX(IBCCtrlA)
296 #define krp_ibcctrl_b KREG_IBPORT_IDX(IBCCtrlB)
297 #define krp_ibcctrl_c KREG_IBPORT_IDX(IBCCtrlC)
298 #define krp_ibcstatus_a KREG_IBPORT_IDX(IBCStatusA)
299 #define krp_ibcstatus_b KREG_IBPORT_IDX(IBCStatusB)
300 #define krp_txestatus KREG_IBPORT_IDX(TXEStatus)
301 #define krp_lowprio_0 KREG_IBPORT_IDX(LowPriority0)
302 #define krp_ncmodectrl KREG_IBPORT_IDX(IBNCModeCtrl)
303 #define krp_partitionkey KREG_IBPORT_IDX(RcvPartitionKey)
304 #define krp_psinterval KREG_IBPORT_IDX(PSInterval)
305 #define krp_psstart KREG_IBPORT_IDX(PSStart)
306 #define krp_psstat KREG_IBPORT_IDX(PSStat)
307 #define krp_rcvbthqp KREG_IBPORT_IDX(RcvBTHQP)
308 #define krp_rcvctrl KREG_IBPORT_IDX(RcvCtrl)
309 #define krp_rcvpktledcnt KREG_IBPORT_IDX(RcvPktLEDCnt)
310 #define krp_rcvqpmaptable KREG_IBPORT_IDX(RcvQPMapTableA)
311 #define krp_rxcreditvl0 KREG_IBPORT_IDX(RxCreditVL0)
312 #define krp_rxcreditvl15 (KREG_IBPORT_IDX(RxCreditVL0)+15)
313 #define krp_sendcheckcontrol KREG_IBPORT_IDX(SendCheckControl)
314 #define krp_sendctrl KREG_IBPORT_IDX(SendCtrl)
315 #define krp_senddmabase KREG_IBPORT_IDX(SendDmaBase)
316 #define krp_senddmabufmask0 KREG_IBPORT_IDX(SendDmaBufMask0)
317 #define krp_senddmabufmask1 (KREG_IBPORT_IDX(SendDmaBufMask0) + 1)
318 #define krp_senddmabufmask2 (KREG_IBPORT_IDX(SendDmaBufMask0) + 2)
319 #define krp_senddmabuf_use0 KREG_IBPORT_IDX(SendDmaBufUsed0)
320 #define krp_senddmabuf_use1 (KREG_IBPORT_IDX(SendDmaBufUsed0) + 1)
321 #define krp_senddmabuf_use2 (KREG_IBPORT_IDX(SendDmaBufUsed0) + 2)
322 #define krp_senddmadesccnt KREG_IBPORT_IDX(SendDmaDescCnt)
323 #define krp_senddmahead KREG_IBPORT_IDX(SendDmaHead)
324 #define krp_senddmaheadaddr KREG_IBPORT_IDX(SendDmaHeadAddr)
325 #define krp_senddmaidlecnt KREG_IBPORT_IDX(SendDmaIdleCnt)
326 #define krp_senddmalengen KREG_IBPORT_IDX(SendDmaLenGen)
327 #define krp_senddmaprioritythld KREG_IBPORT_IDX(SendDmaPriorityThld)
328 #define krp_senddmareloadcnt KREG_IBPORT_IDX(SendDmaReloadCnt)
329 #define krp_senddmastatus KREG_IBPORT_IDX(SendDmaStatus)
330 #define krp_senddmatail KREG_IBPORT_IDX(SendDmaTail)
331 #define krp_sendhdrsymptom KREG_IBPORT_IDX(SendHdrErrSymptom)
332 #define krp_sendslid KREG_IBPORT_IDX(SendIBSLIDAssign)
333 #define krp_sendslidmask KREG_IBPORT_IDX(SendIBSLIDMask)
334 #define krp_ibsdtestiftx KREG_IBPORT_IDX(IB_SDTEST_IF_TX)
335 #define krp_adapt_dis_timer KREG_IBPORT_IDX(ADAPT_DISABLE_TIMER_THRESHOLD)
336 #define krp_tx_deemph_override KREG_IBPORT_IDX(IBSD_TX_DEEMPHASIS_OVERRIDE)
337 #define krp_serdesctrl KREG_IBPORT_IDX(IBSerdesCtrl)
338
339 /*
340  * Per-context kernel registers.  Access only with qib_read_kreg_ctxt()
341  * or qib_write_kreg_ctxt()
342  */
343 #define krc_rcvhdraddr KREG_IDX(RcvHdrAddr0)
344 #define krc_rcvhdrtailaddr KREG_IDX(RcvHdrTailAddr0)
345
346 /*
347  * TID Flow table, per context.  Reduces
348  * number of hdrq updates to one per flow (or on errors).
349  * context 0 and 1 share same memory, but have distinct
350  * addresses.  Since for now, we never use expected sends
351  * on kernel contexts, we don't worry about that (we initialize
352  * those entries for ctxt 0/1 on driver load twice, for example).
353  */
354 #define NUM_TIDFLOWS_CTXT 0x20 /* 0x20 per context; have to hardcode */
355 #define ur_rcvflowtable (KREG_IDX(RcvTIDFlowTable0) - KREG_IDX(RcvHdrTail0))
356
357 /* these are the error bits in the tid flows, and are W1C */
358 #define TIDFLOW_ERRBITS  ( \
359         (SYM_MASK(RcvTIDFlowTable0, GenMismatch) << \
360         SYM_LSB(RcvTIDFlowTable0, GenMismatch)) | \
361         (SYM_MASK(RcvTIDFlowTable0, SeqMismatch) << \
362         SYM_LSB(RcvTIDFlowTable0, SeqMismatch)))
363
364 /* Most (not all) Counters are per-IBport.
365  * Requires LBIntCnt is at offset 0 in the group
366  */
367 #define CREG_IDX(regname) \
368 ((QIB_7322_##regname##_0_OFFS - QIB_7322_LBIntCnt_OFFS) / sizeof(u64))
369
370 #define crp_badformat CREG_IDX(RxVersionErrCnt)
371 #define crp_err_rlen CREG_IDX(RxLenErrCnt)
372 #define crp_erricrc CREG_IDX(RxICRCErrCnt)
373 #define crp_errlink CREG_IDX(RxLinkMalformCnt)
374 #define crp_errlpcrc CREG_IDX(RxLPCRCErrCnt)
375 #define crp_errpkey CREG_IDX(RxPKeyMismatchCnt)
376 #define crp_errvcrc CREG_IDX(RxVCRCErrCnt)
377 #define crp_excessbufferovfl CREG_IDX(ExcessBufferOvflCnt)
378 #define crp_iblinkdown CREG_IDX(IBLinkDownedCnt)
379 #define crp_iblinkerrrecov CREG_IDX(IBLinkErrRecoveryCnt)
380 #define crp_ibstatuschange CREG_IDX(IBStatusChangeCnt)
381 #define crp_ibsymbolerr CREG_IDX(IBSymbolErrCnt)
382 #define crp_invalidrlen CREG_IDX(RxMaxMinLenErrCnt)
383 #define crp_locallinkintegrityerr CREG_IDX(LocalLinkIntegrityErrCnt)
384 #define crp_pktrcv CREG_IDX(RxDataPktCnt)
385 #define crp_pktrcvflowctrl CREG_IDX(RxFlowPktCnt)
386 #define crp_pktsend CREG_IDX(TxDataPktCnt)
387 #define crp_pktsendflow CREG_IDX(TxFlowPktCnt)
388 #define crp_psrcvdatacount CREG_IDX(PSRcvDataCount)
389 #define crp_psrcvpktscount CREG_IDX(PSRcvPktsCount)
390 #define crp_psxmitdatacount CREG_IDX(PSXmitDataCount)
391 #define crp_psxmitpktscount CREG_IDX(PSXmitPktsCount)
392 #define crp_psxmitwaitcount CREG_IDX(PSXmitWaitCount)
393 #define crp_rcvebp CREG_IDX(RxEBPCnt)
394 #define crp_rcvflowctrlviol CREG_IDX(RxFlowCtrlViolCnt)
395 #define crp_rcvovfl CREG_IDX(RxBufOvflCnt)
396 #define crp_rxdlidfltr CREG_IDX(RxDlidFltrCnt)
397 #define crp_rxdroppkt CREG_IDX(RxDroppedPktCnt)
398 #define crp_rxotherlocalphyerr CREG_IDX(RxOtherLocalPhyErrCnt)
399 #define crp_rxqpinvalidctxt CREG_IDX(RxQPInvalidContextCnt)
400 #define crp_rxvlerr CREG_IDX(RxVlErrCnt)
401 #define crp_sendstall CREG_IDX(TxFlowStallCnt)
402 #define crp_txdroppedpkt CREG_IDX(TxDroppedPktCnt)
403 #define crp_txhdrerr CREG_IDX(TxHeadersErrCnt)
404 #define crp_txlenerr CREG_IDX(TxLenErrCnt)
405 #define crp_txminmaxlenerr CREG_IDX(TxMaxMinLenErrCnt)
406 #define crp_txsdmadesc CREG_IDX(TxSDmaDescCnt)
407 #define crp_txunderrun CREG_IDX(TxUnderrunCnt)
408 #define crp_txunsupvl CREG_IDX(TxUnsupVLErrCnt)
409 #define crp_vl15droppedpkt CREG_IDX(RxVL15DroppedPktCnt)
410 #define crp_wordrcv CREG_IDX(RxDwordCnt)
411 #define crp_wordsend CREG_IDX(TxDwordCnt)
412 #define crp_tx_creditstalls CREG_IDX(TxCreditUpToDateTimeOut)
413
414 /* these are the (few) counters that are not port-specific */
415 #define CREG_DEVIDX(regname) ((QIB_7322_##regname##_OFFS - \
416                         QIB_7322_LBIntCnt_OFFS) / sizeof(u64))
417 #define cr_base_egrovfl CREG_DEVIDX(RxP0HdrEgrOvflCnt)
418 #define cr_lbint CREG_DEVIDX(LBIntCnt)
419 #define cr_lbstall CREG_DEVIDX(LBFlowStallCnt)
420 #define cr_pcieretrydiag CREG_DEVIDX(PcieRetryBufDiagQwordCnt)
421 #define cr_rxtidflowdrop CREG_DEVIDX(RxTidFlowDropCnt)
422 #define cr_tidfull CREG_DEVIDX(RxTIDFullErrCnt)
423 #define cr_tidinvalid CREG_DEVIDX(RxTIDValidErrCnt)
424
425 /* no chip register for # of IB ports supported, so define */
426 #define NUM_IB_PORTS 2
427
428 /* 1 VL15 buffer per hardware IB port, no register for this, so define */
429 #define NUM_VL15_BUFS NUM_IB_PORTS
430
431 /*
432  * context 0 and 1 are special, and there is no chip register that
433  * defines this value, so we have to define it here.
434  * These are all allocated to either 0 or 1 for single port
435  * hardware configuration, otherwise each gets half
436  */
437 #define KCTXT0_EGRCNT 2048
438
439 /* values for vl and port fields in PBC, 7322-specific */
440 #define PBC_PORT_SEL_LSB 26
441 #define PBC_PORT_SEL_RMASK 1
442 #define PBC_VL_NUM_LSB 27
443 #define PBC_VL_NUM_RMASK 7
444 #define PBC_7322_VL15_SEND (1ULL << 63) /* pbc; VL15, no credit check */
445 #define PBC_7322_VL15_SEND_CTRL (1ULL << 31) /* control version of same */
446
447 static u8 ib_rate_to_delay[IB_RATE_120_GBPS + 1] = {
448         [IB_RATE_2_5_GBPS] = 16,
449         [IB_RATE_5_GBPS] = 8,
450         [IB_RATE_10_GBPS] = 4,
451         [IB_RATE_20_GBPS] = 2,
452         [IB_RATE_30_GBPS] = 2,
453         [IB_RATE_40_GBPS] = 1
454 };
455
456 #define IBA7322_LINKSPEED_SHIFT SYM_LSB(IBCStatusA_0, LinkSpeedActive)
457 #define IBA7322_LINKWIDTH_SHIFT SYM_LSB(IBCStatusA_0, LinkWidthActive)
458
459 /* link training states, from IBC */
460 #define IB_7322_LT_STATE_DISABLED        0x00
461 #define IB_7322_LT_STATE_LINKUP          0x01
462 #define IB_7322_LT_STATE_POLLACTIVE      0x02
463 #define IB_7322_LT_STATE_POLLQUIET       0x03
464 #define IB_7322_LT_STATE_SLEEPDELAY      0x04
465 #define IB_7322_LT_STATE_SLEEPQUIET      0x05
466 #define IB_7322_LT_STATE_CFGDEBOUNCE     0x08
467 #define IB_7322_LT_STATE_CFGRCVFCFG      0x09
468 #define IB_7322_LT_STATE_CFGWAITRMT      0x0a
469 #define IB_7322_LT_STATE_CFGIDLE         0x0b
470 #define IB_7322_LT_STATE_RECOVERRETRAIN  0x0c
471 #define IB_7322_LT_STATE_TXREVLANES      0x0d
472 #define IB_7322_LT_STATE_RECOVERWAITRMT  0x0e
473 #define IB_7322_LT_STATE_RECOVERIDLE     0x0f
474 #define IB_7322_LT_STATE_CFGENH          0x10
475 #define IB_7322_LT_STATE_CFGTEST         0x11
476 #define IB_7322_LT_STATE_CFGWAITRMTTEST  0x12
477 #define IB_7322_LT_STATE_CFGWAITENH      0x13
478
479 /* link state machine states from IBC */
480 #define IB_7322_L_STATE_DOWN             0x0
481 #define IB_7322_L_STATE_INIT             0x1
482 #define IB_7322_L_STATE_ARM              0x2
483 #define IB_7322_L_STATE_ACTIVE           0x3
484 #define IB_7322_L_STATE_ACT_DEFER        0x4
485
486 static const u8 qib_7322_physportstate[0x20] = {
487         [IB_7322_LT_STATE_DISABLED] = IB_PHYSPORTSTATE_DISABLED,
488         [IB_7322_LT_STATE_LINKUP] = IB_PHYSPORTSTATE_LINKUP,
489         [IB_7322_LT_STATE_POLLACTIVE] = IB_PHYSPORTSTATE_POLL,
490         [IB_7322_LT_STATE_POLLQUIET] = IB_PHYSPORTSTATE_POLL,
491         [IB_7322_LT_STATE_SLEEPDELAY] = IB_PHYSPORTSTATE_SLEEP,
492         [IB_7322_LT_STATE_SLEEPQUIET] = IB_PHYSPORTSTATE_SLEEP,
493         [IB_7322_LT_STATE_CFGDEBOUNCE] = IB_PHYSPORTSTATE_CFG_TRAIN,
494         [IB_7322_LT_STATE_CFGRCVFCFG] =
495                 IB_PHYSPORTSTATE_CFG_TRAIN,
496         [IB_7322_LT_STATE_CFGWAITRMT] =
497                 IB_PHYSPORTSTATE_CFG_TRAIN,
498         [IB_7322_LT_STATE_CFGIDLE] = IB_PHYSPORTSTATE_CFG_IDLE,
499         [IB_7322_LT_STATE_RECOVERRETRAIN] =
500                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
501         [IB_7322_LT_STATE_RECOVERWAITRMT] =
502                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
503         [IB_7322_LT_STATE_RECOVERIDLE] =
504                 IB_PHYSPORTSTATE_LINK_ERR_RECOVER,
505         [IB_7322_LT_STATE_CFGENH] = IB_PHYSPORTSTATE_CFG_ENH,
506         [IB_7322_LT_STATE_CFGTEST] = IB_PHYSPORTSTATE_CFG_TRAIN,
507         [IB_7322_LT_STATE_CFGWAITRMTTEST] =
508                 IB_PHYSPORTSTATE_CFG_TRAIN,
509         [IB_7322_LT_STATE_CFGWAITENH] =
510                 IB_PHYSPORTSTATE_CFG_WAIT_ENH,
511         [0x14] = IB_PHYSPORTSTATE_CFG_TRAIN,
512         [0x15] = IB_PHYSPORTSTATE_CFG_TRAIN,
513         [0x16] = IB_PHYSPORTSTATE_CFG_TRAIN,
514         [0x17] = IB_PHYSPORTSTATE_CFG_TRAIN
515 };
516
517 struct qib_chip_specific {
518         u64 __iomem *cregbase;
519         u64 *cntrs;
520         spinlock_t rcvmod_lock; /* protect rcvctrl shadow changes */
521         spinlock_t gpio_lock; /* RMW of shadows/regs for ExtCtrl and GPIO */
522         u64 main_int_mask;      /* clear bits which have dedicated handlers */
523         u64 int_enable_mask;  /* for per port interrupts in single port mode */
524         u64 errormask;
525         u64 hwerrmask;
526         u64 gpio_out; /* shadow of kr_gpio_out, for rmw ops */
527         u64 gpio_mask; /* shadow the gpio mask register */
528         u64 extctrl; /* shadow the gpio output enable, etc... */
529         u32 ncntrs;
530         u32 nportcntrs;
531         u32 cntrnamelen;
532         u32 portcntrnamelen;
533         u32 numctxts;
534         u32 rcvegrcnt;
535         u32 updthresh; /* current AvailUpdThld */
536         u32 updthresh_dflt; /* default AvailUpdThld */
537         u32 r1;
538         int irq;
539         u32 num_msix_entries;
540         u32 sdmabufcnt;
541         u32 lastbuf_for_pio;
542         u32 stay_in_freeze;
543         u32 recovery_ports_initted;
544         struct msix_entry *msix_entries;
545         void  **msix_arg;
546         unsigned long *sendchkenable;
547         unsigned long *sendgrhchk;
548         unsigned long *sendibchk;
549         u32 rcvavail_timeout[18];
550         char emsgbuf[128]; /* for device error interrupt msg buffer */
551 };
552
553 /* Table of entries in "human readable" form Tx Emphasis. */
554 struct txdds_ent {
555         u8 amp;
556         u8 pre;
557         u8 main;
558         u8 post;
559 };
560
561 struct vendor_txdds_ent {
562         u8 oui[QSFP_VOUI_LEN];
563         u8 *partnum;
564         struct txdds_ent sdr;
565         struct txdds_ent ddr;
566         struct txdds_ent qdr;
567 };
568
569 static void write_tx_serdes_param(struct qib_pportdata *, struct txdds_ent *);
570
571 #define TXDDS_TABLE_SZ 16 /* number of entries per speed in onchip table */
572 #define TXDDS_EXTRA_SZ 13 /* number of extra tx settings entries */
573 #define TXDDS_MFG_SZ 2    /* number of mfg tx settings entries */
574 #define SERDES_CHANS 4 /* yes, it's obvious, but one less magic number */
575
576 #define H1_FORCE_VAL 8
577 #define H1_FORCE_QME 1 /*  may be overridden via setup_txselect() */
578 #define H1_FORCE_QMH 7 /*  may be overridden via setup_txselect() */
579
580 /* The static and dynamic registers are paired, and the pairs indexed by spd */
581 #define krp_static_adapt_dis(spd) (KREG_IBPORT_IDX(ADAPT_DISABLE_STATIC_SDR) \
582         + ((spd) * 2))
583
584 #define QDR_DFE_DISABLE_DELAY 4000 /* msec after LINKUP */
585 #define QDR_STATIC_ADAPT_DOWN 0xf0f0f0f0ULL /* link down, H1-H4 QDR adapts */
586 #define QDR_STATIC_ADAPT_DOWN_R1 0ULL /* r1 link down, H1-H4 QDR adapts */
587 #define QDR_STATIC_ADAPT_INIT 0xffffffffffULL /* up, disable H0,H1-8, LE */
588 #define QDR_STATIC_ADAPT_INIT_R1 0xf0ffffffffULL /* r1 up, disable H0,H1-8 */
589
590 struct qib_chippport_specific {
591         u64 __iomem *kpregbase;
592         u64 __iomem *cpregbase;
593         u64 *portcntrs;
594         struct qib_pportdata *ppd;
595         wait_queue_head_t autoneg_wait;
596         struct delayed_work autoneg_work;
597         struct delayed_work ipg_work;
598         struct timer_list chase_timer;
599         /*
600          * these 5 fields are used to establish deltas for IB symbol
601          * errors and linkrecovery errors.  They can be reported on
602          * some chips during link negotiation prior to INIT, and with
603          * DDR when faking DDR negotiations with non-IBTA switches.
604          * The chip counters are adjusted at driver unload if there is
605          * a non-zero delta.
606          */
607         u64 ibdeltainprog;
608         u64 ibsymdelta;
609         u64 ibsymsnap;
610         u64 iblnkerrdelta;
611         u64 iblnkerrsnap;
612         u64 iblnkdownsnap;
613         u64 iblnkdowndelta;
614         u64 ibmalfdelta;
615         u64 ibmalfsnap;
616         u64 ibcctrl_a; /* krp_ibcctrl_a shadow */
617         u64 ibcctrl_b; /* krp_ibcctrl_b shadow */
618         u64 qdr_dfe_time;
619         u64 chase_end;
620         u32 autoneg_tries;
621         u32 recovery_init;
622         u32 qdr_dfe_on;
623         u32 qdr_reforce;
624         /*
625          * Per-bay per-channel rcv QMH H1 values and Tx values for QDR.
626          * entry zero is unused, to simplify indexing
627          */
628         u8 h1_val;
629         u8 no_eep;  /* txselect table index to use if no qsfp info */
630         u8 ipg_tries;
631         u8 ibmalfusesnap;
632         struct qib_qsfp_data qsfp_data;
633         char epmsgbuf[192]; /* for port error interrupt msg buffer */
634 };
635
636 static struct {
637         const char *name;
638         irq_handler_t handler;
639         int lsb;
640         int port; /* 0 if not port-specific, else port # */
641 } irq_table[] = {
642         { QIB_DRV_NAME, qib_7322intr, -1, 0 },
643         { QIB_DRV_NAME " (buf avail)", qib_7322bufavail,
644                 SYM_LSB(IntStatus, SendBufAvail), 0 },
645         { QIB_DRV_NAME " (sdma 0)", sdma_intr,
646                 SYM_LSB(IntStatus, SDmaInt_0), 1 },
647         { QIB_DRV_NAME " (sdma 1)", sdma_intr,
648                 SYM_LSB(IntStatus, SDmaInt_1), 2 },
649         { QIB_DRV_NAME " (sdmaI 0)", sdma_idle_intr,
650                 SYM_LSB(IntStatus, SDmaIdleInt_0), 1 },
651         { QIB_DRV_NAME " (sdmaI 1)", sdma_idle_intr,
652                 SYM_LSB(IntStatus, SDmaIdleInt_1), 2 },
653         { QIB_DRV_NAME " (sdmaP 0)", sdma_progress_intr,
654                 SYM_LSB(IntStatus, SDmaProgressInt_0), 1 },
655         { QIB_DRV_NAME " (sdmaP 1)", sdma_progress_intr,
656                 SYM_LSB(IntStatus, SDmaProgressInt_1), 2 },
657         { QIB_DRV_NAME " (sdmaC 0)", sdma_cleanup_intr,
658                 SYM_LSB(IntStatus, SDmaCleanupDone_0), 1 },
659         { QIB_DRV_NAME " (sdmaC 1)", sdma_cleanup_intr,
660                 SYM_LSB(IntStatus, SDmaCleanupDone_1), 2 },
661 };
662
663 /* ibcctrl bits */
664 #define QLOGIC_IB_IBCC_LINKINITCMD_DISABLE 1
665 /* cycle through TS1/TS2 till OK */
666 #define QLOGIC_IB_IBCC_LINKINITCMD_POLL 2
667 /* wait for TS1, then go on */
668 #define QLOGIC_IB_IBCC_LINKINITCMD_SLEEP 3
669 #define QLOGIC_IB_IBCC_LINKINITCMD_SHIFT 16
670
671 #define QLOGIC_IB_IBCC_LINKCMD_DOWN 1           /* move to 0x11 */
672 #define QLOGIC_IB_IBCC_LINKCMD_ARMED 2          /* move to 0x21 */
673 #define QLOGIC_IB_IBCC_LINKCMD_ACTIVE 3 /* move to 0x31 */
674
675 #define BLOB_7322_IBCHG 0x101
676
677 static inline void qib_write_kreg(const struct qib_devdata *dd,
678                                   const u32 regno, u64 value);
679 static inline u32 qib_read_kreg32(const struct qib_devdata *, const u32);
680 static void write_7322_initregs(struct qib_devdata *);
681 static void write_7322_init_portregs(struct qib_pportdata *);
682 static void setup_7322_link_recovery(struct qib_pportdata *, u32);
683 static void check_7322_rxe_status(struct qib_pportdata *);
684 static u32 __iomem *qib_7322_getsendbuf(struct qib_pportdata *, u64, u32 *);
685
686 /**
687  * qib_read_ureg32 - read 32-bit virtualized per-context register
688  * @dd: device
689  * @regno: register number
690  * @ctxt: context number
691  *
692  * Return the contents of a register that is virtualized to be per context.
693  * Returns -1 on errors (not distinguishable from valid contents at
694  * runtime; we may add a separate error variable at some point).
695  */
696 static inline u32 qib_read_ureg32(const struct qib_devdata *dd,
697                                   enum qib_ureg regno, int ctxt)
698 {
699         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
700                 return 0;
701         return readl(regno + (u64 __iomem *)(
702                 (dd->ureg_align * ctxt) + (dd->userbase ?
703                  (char __iomem *)dd->userbase :
704                  (char __iomem *)dd->kregbase + dd->uregbase)));
705 }
706
707 /**
708  * qib_read_ureg - read virtualized per-context register
709  * @dd: device
710  * @regno: register number
711  * @ctxt: context number
712  *
713  * Return the contents of a register that is virtualized to be per context.
714  * Returns -1 on errors (not distinguishable from valid contents at
715  * runtime; we may add a separate error variable at some point).
716  */
717 static inline u64 qib_read_ureg(const struct qib_devdata *dd,
718                                 enum qib_ureg regno, int ctxt)
719 {
720
721         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
722                 return 0;
723         return readq(regno + (u64 __iomem *)(
724                 (dd->ureg_align * ctxt) + (dd->userbase ?
725                  (char __iomem *)dd->userbase :
726                  (char __iomem *)dd->kregbase + dd->uregbase)));
727 }
728
729 /**
730  * qib_write_ureg - write virtualized per-context register
731  * @dd: device
732  * @regno: register number
733  * @value: value
734  * @ctxt: context
735  *
736  * Write the contents of a register that is virtualized to be per context.
737  */
738 static inline void qib_write_ureg(const struct qib_devdata *dd,
739                                   enum qib_ureg regno, u64 value, int ctxt)
740 {
741         u64 __iomem *ubase;
742         if (dd->userbase)
743                 ubase = (u64 __iomem *)
744                         ((char __iomem *) dd->userbase +
745                          dd->ureg_align * ctxt);
746         else
747                 ubase = (u64 __iomem *)
748                         (dd->uregbase +
749                          (char __iomem *) dd->kregbase +
750                          dd->ureg_align * ctxt);
751
752         if (dd->kregbase && (dd->flags & QIB_PRESENT))
753                 writeq(value, &ubase[regno]);
754 }
755
756 static inline u32 qib_read_kreg32(const struct qib_devdata *dd,
757                                   const u32 regno)
758 {
759         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
760                 return -1;
761         return readl((u32 __iomem *) &dd->kregbase[regno]);
762 }
763
764 static inline u64 qib_read_kreg64(const struct qib_devdata *dd,
765                                   const u32 regno)
766 {
767         if (!dd->kregbase || !(dd->flags & QIB_PRESENT))
768                 return -1;
769         return readq(&dd->kregbase[regno]);
770 }
771
772 static inline void qib_write_kreg(const struct qib_devdata *dd,
773                                   const u32 regno, u64 value)
774 {
775         if (dd->kregbase && (dd->flags & QIB_PRESENT))
776                 writeq(value, &dd->kregbase[regno]);
777 }
778
779 /*
780  * not many sanity checks for the port-specific kernel register routines,
781  * since they are only used when it's known to be safe.
782 */
783 static inline u64 qib_read_kreg_port(const struct qib_pportdata *ppd,
784                                      const u16 regno)
785 {
786         if (!ppd->cpspec->kpregbase || !(ppd->dd->flags & QIB_PRESENT))
787                 return 0ULL;
788         return readq(&ppd->cpspec->kpregbase[regno]);
789 }
790
791 static inline void qib_write_kreg_port(const struct qib_pportdata *ppd,
792                                        const u16 regno, u64 value)
793 {
794         if (ppd->cpspec && ppd->dd && ppd->cpspec->kpregbase &&
795             (ppd->dd->flags & QIB_PRESENT))
796                 writeq(value, &ppd->cpspec->kpregbase[regno]);
797 }
798
799 /**
800  * qib_write_kreg_ctxt - write a device's per-ctxt 64-bit kernel register
801  * @dd: the qlogic_ib device
802  * @regno: the register number to write
803  * @ctxt: the context containing the register
804  * @value: the value to write
805  */
806 static inline void qib_write_kreg_ctxt(const struct qib_devdata *dd,
807                                        const u16 regno, unsigned ctxt,
808                                        u64 value)
809 {
810         qib_write_kreg(dd, regno + ctxt, value);
811 }
812
813 static inline u64 read_7322_creg(const struct qib_devdata *dd, u16 regno)
814 {
815         if (!dd->cspec->cregbase || !(dd->flags & QIB_PRESENT))
816                 return 0;
817         return readq(&dd->cspec->cregbase[regno]);
818
819
820 }
821
822 static inline u32 read_7322_creg32(const struct qib_devdata *dd, u16 regno)
823 {
824         if (!dd->cspec->cregbase || !(dd->flags & QIB_PRESENT))
825                 return 0;
826         return readl(&dd->cspec->cregbase[regno]);
827
828
829 }
830
831 static inline void write_7322_creg_port(const struct qib_pportdata *ppd,
832                                         u16 regno, u64 value)
833 {
834         if (ppd->cpspec && ppd->cpspec->cpregbase &&
835             (ppd->dd->flags & QIB_PRESENT))
836                 writeq(value, &ppd->cpspec->cpregbase[regno]);
837 }
838
839 static inline u64 read_7322_creg_port(const struct qib_pportdata *ppd,
840                                       u16 regno)
841 {
842         if (!ppd->cpspec || !ppd->cpspec->cpregbase ||
843             !(ppd->dd->flags & QIB_PRESENT))
844                 return 0;
845         return readq(&ppd->cpspec->cpregbase[regno]);
846 }
847
848 static inline u32 read_7322_creg32_port(const struct qib_pportdata *ppd,
849                                         u16 regno)
850 {
851         if (!ppd->cpspec || !ppd->cpspec->cpregbase ||
852             !(ppd->dd->flags & QIB_PRESENT))
853                 return 0;
854         return readl(&ppd->cpspec->cpregbase[regno]);
855 }
856
857 /* bits in Control register */
858 #define QLOGIC_IB_C_RESET SYM_MASK(Control, SyncReset)
859 #define QLOGIC_IB_C_SDMAFETCHPRIOEN SYM_MASK(Control, SDmaDescFetchPriorityEn)
860
861 /* bits in general interrupt regs */
862 #define QIB_I_RCVURG_LSB SYM_LSB(IntMask, RcvUrg0IntMask)
863 #define QIB_I_RCVURG_RMASK MASK_ACROSS(0, 17)
864 #define QIB_I_RCVURG_MASK (QIB_I_RCVURG_RMASK << QIB_I_RCVURG_LSB)
865 #define QIB_I_RCVAVAIL_LSB SYM_LSB(IntMask, RcvAvail0IntMask)
866 #define QIB_I_RCVAVAIL_RMASK MASK_ACROSS(0, 17)
867 #define QIB_I_RCVAVAIL_MASK (QIB_I_RCVAVAIL_RMASK << QIB_I_RCVAVAIL_LSB)
868 #define QIB_I_C_ERROR INT_MASK(Err)
869
870 #define QIB_I_SPIOSENT (INT_MASK_P(SendDone, 0) | INT_MASK_P(SendDone, 1))
871 #define QIB_I_SPIOBUFAVAIL INT_MASK(SendBufAvail)
872 #define QIB_I_GPIO INT_MASK(AssertGPIO)
873 #define QIB_I_P_SDMAINT(pidx) \
874         (INT_MASK_P(SDma, pidx) | INT_MASK_P(SDmaIdle, pidx) | \
875          INT_MASK_P(SDmaProgress, pidx) | \
876          INT_MASK_PM(SDmaCleanupDone, pidx))
877
878 /* Interrupt bits that are "per port" */
879 #define QIB_I_P_BITSEXTANT(pidx) \
880         (INT_MASK_P(Err, pidx) | INT_MASK_P(SendDone, pidx) | \
881         INT_MASK_P(SDma, pidx) | INT_MASK_P(SDmaIdle, pidx) | \
882         INT_MASK_P(SDmaProgress, pidx) | \
883         INT_MASK_PM(SDmaCleanupDone, pidx))
884
885 /* Interrupt bits that are common to a device */
886 /* currently unused: QIB_I_SPIOSENT */
887 #define QIB_I_C_BITSEXTANT \
888         (QIB_I_RCVURG_MASK | QIB_I_RCVAVAIL_MASK | \
889         QIB_I_SPIOSENT | \
890         QIB_I_C_ERROR | QIB_I_SPIOBUFAVAIL | QIB_I_GPIO)
891
892 #define QIB_I_BITSEXTANT (QIB_I_C_BITSEXTANT | \
893         QIB_I_P_BITSEXTANT(0) | QIB_I_P_BITSEXTANT(1))
894
895 /*
896  * Error bits that are "per port".
897  */
898 #define QIB_E_P_IBSTATUSCHANGED ERR_MASK_N(IBStatusChanged)
899 #define QIB_E_P_SHDR ERR_MASK_N(SHeadersErr)
900 #define QIB_E_P_VL15_BUF_MISUSE ERR_MASK_N(VL15BufMisuseErr)
901 #define QIB_E_P_SND_BUF_MISUSE ERR_MASK_N(SendBufMisuseErr)
902 #define QIB_E_P_SUNSUPVL ERR_MASK_N(SendUnsupportedVLErr)
903 #define QIB_E_P_SUNEXP_PKTNUM ERR_MASK_N(SendUnexpectedPktNumErr)
904 #define QIB_E_P_SDROP_DATA ERR_MASK_N(SendDroppedDataPktErr)
905 #define QIB_E_P_SDROP_SMP ERR_MASK_N(SendDroppedSmpPktErr)
906 #define QIB_E_P_SPKTLEN ERR_MASK_N(SendPktLenErr)
907 #define QIB_E_P_SUNDERRUN ERR_MASK_N(SendUnderRunErr)
908 #define QIB_E_P_SMAXPKTLEN ERR_MASK_N(SendMaxPktLenErr)
909 #define QIB_E_P_SMINPKTLEN ERR_MASK_N(SendMinPktLenErr)
910 #define QIB_E_P_RIBLOSTLINK ERR_MASK_N(RcvIBLostLinkErr)
911 #define QIB_E_P_RHDR ERR_MASK_N(RcvHdrErr)
912 #define QIB_E_P_RHDRLEN ERR_MASK_N(RcvHdrLenErr)
913 #define QIB_E_P_RBADTID ERR_MASK_N(RcvBadTidErr)
914 #define QIB_E_P_RBADVERSION ERR_MASK_N(RcvBadVersionErr)
915 #define QIB_E_P_RIBFLOW ERR_MASK_N(RcvIBFlowErr)
916 #define QIB_E_P_REBP ERR_MASK_N(RcvEBPErr)
917 #define QIB_E_P_RUNSUPVL ERR_MASK_N(RcvUnsupportedVLErr)
918 #define QIB_E_P_RUNEXPCHAR ERR_MASK_N(RcvUnexpectedCharErr)
919 #define QIB_E_P_RSHORTPKTLEN ERR_MASK_N(RcvShortPktLenErr)
920 #define QIB_E_P_RLONGPKTLEN ERR_MASK_N(RcvLongPktLenErr)
921 #define QIB_E_P_RMAXPKTLEN ERR_MASK_N(RcvMaxPktLenErr)
922 #define QIB_E_P_RMINPKTLEN ERR_MASK_N(RcvMinPktLenErr)
923 #define QIB_E_P_RICRC ERR_MASK_N(RcvICRCErr)
924 #define QIB_E_P_RVCRC ERR_MASK_N(RcvVCRCErr)
925 #define QIB_E_P_RFORMATERR ERR_MASK_N(RcvFormatErr)
926
927 #define QIB_E_P_SDMA1STDESC ERR_MASK_N(SDma1stDescErr)
928 #define QIB_E_P_SDMABASE ERR_MASK_N(SDmaBaseErr)
929 #define QIB_E_P_SDMADESCADDRMISALIGN ERR_MASK_N(SDmaDescAddrMisalignErr)
930 #define QIB_E_P_SDMADWEN ERR_MASK_N(SDmaDwEnErr)
931 #define QIB_E_P_SDMAGENMISMATCH ERR_MASK_N(SDmaGenMismatchErr)
932 #define QIB_E_P_SDMAHALT ERR_MASK_N(SDmaHaltErr)
933 #define QIB_E_P_SDMAMISSINGDW ERR_MASK_N(SDmaMissingDwErr)
934 #define QIB_E_P_SDMAOUTOFBOUND ERR_MASK_N(SDmaOutOfBoundErr)
935 #define QIB_E_P_SDMARPYTAG ERR_MASK_N(SDmaRpyTagErr)
936 #define QIB_E_P_SDMATAILOUTOFBOUND ERR_MASK_N(SDmaTailOutOfBoundErr)
937 #define QIB_E_P_SDMAUNEXPDATA ERR_MASK_N(SDmaUnexpDataErr)
938
939 /* Error bits that are common to a device */
940 #define QIB_E_RESET ERR_MASK(ResetNegated)
941 #define QIB_E_HARDWARE ERR_MASK(HardwareErr)
942 #define QIB_E_INVALIDADDR ERR_MASK(InvalidAddrErr)
943
944
945 /*
946  * Per chip (rather than per-port) errors.  Most either do
947  * nothing but trigger a print (because they self-recover, or
948  * always occur in tandem with other errors that handle the
949  * issue), or because they indicate errors with no recovery,
950  * but we want to know that they happened.
951  */
952 #define QIB_E_SBUF_VL15_MISUSE ERR_MASK(SBufVL15MisUseErr)
953 #define QIB_E_BADEEP ERR_MASK(InvalidEEPCmd)
954 #define QIB_E_VLMISMATCH ERR_MASK(SendVLMismatchErr)
955 #define QIB_E_ARMLAUNCH ERR_MASK(SendArmLaunchErr)
956 #define QIB_E_SPCLTRIG ERR_MASK(SendSpecialTriggerErr)
957 #define QIB_E_RRCVHDRFULL ERR_MASK(RcvHdrFullErr)
958 #define QIB_E_RRCVEGRFULL ERR_MASK(RcvEgrFullErr)
959 #define QIB_E_RCVCTXTSHARE ERR_MASK(RcvContextShareErr)
960
961 /* SDMA chip errors (not per port)
962  * QIB_E_SDMA_BUF_DUP needs no special handling, because we will also get
963  * the SDMAHALT error immediately, so we just print the dup error via the
964  * E_AUTO mechanism.  This is true of most of the per-port fatal errors
965  * as well, but since this is port-independent, by definition, it's
966  * handled a bit differently.  SDMA_VL15 and SDMA_WRONG_PORT are per
967  * packet send errors, and so are handled in the same manner as other
968  * per-packet errors.
969  */
970 #define QIB_E_SDMA_VL15 ERR_MASK(SDmaVL15Err)
971 #define QIB_E_SDMA_WRONG_PORT ERR_MASK(SDmaWrongPortErr)
972 #define QIB_E_SDMA_BUF_DUP ERR_MASK(SDmaBufMaskDuplicateErr)
973
974 /*
975  * Below functionally equivalent to legacy QLOGIC_IB_E_PKTERRS
976  * it is used to print "common" packet errors.
977  */
978 #define QIB_E_P_PKTERRS (QIB_E_P_SPKTLEN |\
979         QIB_E_P_SDROP_DATA | QIB_E_P_RVCRC |\
980         QIB_E_P_RICRC | QIB_E_P_RSHORTPKTLEN |\
981         QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SHDR | \
982         QIB_E_P_REBP)
983
984 /* Error Bits that Packet-related (Receive, per-port) */
985 #define QIB_E_P_RPKTERRS (\
986         QIB_E_P_RHDRLEN | QIB_E_P_RBADTID | \
987         QIB_E_P_RBADVERSION | QIB_E_P_RHDR | \
988         QIB_E_P_RLONGPKTLEN | QIB_E_P_RSHORTPKTLEN |\
989         QIB_E_P_RMAXPKTLEN | QIB_E_P_RMINPKTLEN | \
990         QIB_E_P_RFORMATERR | QIB_E_P_RUNSUPVL | \
991         QIB_E_P_RUNEXPCHAR | QIB_E_P_RIBFLOW | QIB_E_P_REBP)
992
993 /*
994  * Error bits that are Send-related (per port)
995  * (ARMLAUNCH excluded from E_SPKTERRS because it gets special handling).
996  * All of these potentially need to have a buffer disarmed
997  */
998 #define QIB_E_P_SPKTERRS (\
999         QIB_E_P_SUNEXP_PKTNUM |\
1000         QIB_E_P_SDROP_DATA | QIB_E_P_SDROP_SMP |\
1001         QIB_E_P_SMAXPKTLEN |\
1002         QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SHDR | \
1003         QIB_E_P_SMINPKTLEN | QIB_E_P_SPKTLEN | \
1004         QIB_E_P_SND_BUF_MISUSE | QIB_E_P_SUNSUPVL)
1005
1006 #define QIB_E_SPKTERRS ( \
1007                 QIB_E_SBUF_VL15_MISUSE | QIB_E_VLMISMATCH | \
1008                 ERR_MASK_N(SendUnsupportedVLErr) |                      \
1009                 QIB_E_SPCLTRIG | QIB_E_SDMA_VL15 | QIB_E_SDMA_WRONG_PORT)
1010
1011 #define QIB_E_P_SDMAERRS ( \
1012         QIB_E_P_SDMAHALT | \
1013         QIB_E_P_SDMADESCADDRMISALIGN | \
1014         QIB_E_P_SDMAUNEXPDATA | \
1015         QIB_E_P_SDMAMISSINGDW | \
1016         QIB_E_P_SDMADWEN | \
1017         QIB_E_P_SDMARPYTAG | \
1018         QIB_E_P_SDMA1STDESC | \
1019         QIB_E_P_SDMABASE | \
1020         QIB_E_P_SDMATAILOUTOFBOUND | \
1021         QIB_E_P_SDMAOUTOFBOUND | \
1022         QIB_E_P_SDMAGENMISMATCH)
1023
1024 /*
1025  * This sets some bits more than once, but makes it more obvious which
1026  * bits are not handled under other categories, and the repeat definition
1027  * is not a problem.
1028  */
1029 #define QIB_E_P_BITSEXTANT ( \
1030         QIB_E_P_SPKTERRS | QIB_E_P_PKTERRS | QIB_E_P_RPKTERRS | \
1031         QIB_E_P_RIBLOSTLINK | QIB_E_P_IBSTATUSCHANGED | \
1032         QIB_E_P_SND_BUF_MISUSE | QIB_E_P_SUNDERRUN | \
1033         QIB_E_P_SHDR | QIB_E_P_VL15_BUF_MISUSE | QIB_E_P_SDMAERRS \
1034         )
1035
1036 /*
1037  * These are errors that can occur when the link
1038  * changes state while a packet is being sent or received.  This doesn't
1039  * cover things like EBP or VCRC that can be the result of a sending
1040  * having the link change state, so we receive a "known bad" packet.
1041  * All of these are "per port", so renamed:
1042  */
1043 #define QIB_E_P_LINK_PKTERRS (\
1044         QIB_E_P_SDROP_DATA | QIB_E_P_SDROP_SMP |\
1045         QIB_E_P_SMINPKTLEN | QIB_E_P_SPKTLEN |\
1046         QIB_E_P_RSHORTPKTLEN | QIB_E_P_RMINPKTLEN |\
1047         QIB_E_P_RUNEXPCHAR)
1048
1049 /*
1050  * This sets some bits more than once, but makes it more obvious which
1051  * bits are not handled under other categories (such as QIB_E_SPKTERRS),
1052  * and the repeat definition is not a problem.
1053  */
1054 #define QIB_E_C_BITSEXTANT (\
1055         QIB_E_HARDWARE | QIB_E_INVALIDADDR | QIB_E_BADEEP |\
1056         QIB_E_ARMLAUNCH | QIB_E_VLMISMATCH | QIB_E_RRCVHDRFULL |\
1057         QIB_E_RRCVEGRFULL | QIB_E_RESET | QIB_E_SBUF_VL15_MISUSE)
1058
1059 /* Likewise Neuter E_SPKT_ERRS_IGNORE */
1060 #define E_SPKT_ERRS_IGNORE 0
1061
1062 #define QIB_EXTS_MEMBIST_DISABLED \
1063         SYM_MASK(EXTStatus, MemBISTDisabled)
1064 #define QIB_EXTS_MEMBIST_ENDTEST \
1065         SYM_MASK(EXTStatus, MemBISTEndTest)
1066
1067 #define QIB_E_SPIOARMLAUNCH \
1068         ERR_MASK(SendArmLaunchErr)
1069
1070 #define IBA7322_IBCC_LINKINITCMD_MASK SYM_RMASK(IBCCtrlA_0, LinkInitCmd)
1071 #define IBA7322_IBCC_LINKCMD_SHIFT SYM_LSB(IBCCtrlA_0, LinkCmd)
1072
1073 /*
1074  * IBTA_1_2 is set when multiple speeds are enabled (normal),
1075  * and also if forced QDR (only QDR enabled).  It's enabled for the
1076  * forced QDR case so that scrambling will be enabled by the TS3
1077  * exchange, when supported by both sides of the link.
1078  */
1079 #define IBA7322_IBC_IBTA_1_2_MASK SYM_MASK(IBCCtrlB_0, IB_ENHANCED_MODE)
1080 #define IBA7322_IBC_MAX_SPEED_MASK SYM_MASK(IBCCtrlB_0, SD_SPEED)
1081 #define IBA7322_IBC_SPEED_QDR SYM_MASK(IBCCtrlB_0, SD_SPEED_QDR)
1082 #define IBA7322_IBC_SPEED_DDR SYM_MASK(IBCCtrlB_0, SD_SPEED_DDR)
1083 #define IBA7322_IBC_SPEED_SDR SYM_MASK(IBCCtrlB_0, SD_SPEED_SDR)
1084 #define IBA7322_IBC_SPEED_MASK (SYM_MASK(IBCCtrlB_0, SD_SPEED_SDR) | \
1085         SYM_MASK(IBCCtrlB_0, SD_SPEED_DDR) | SYM_MASK(IBCCtrlB_0, SD_SPEED_QDR))
1086 #define IBA7322_IBC_SPEED_LSB SYM_LSB(IBCCtrlB_0, SD_SPEED_SDR)
1087
1088 #define IBA7322_LEDBLINK_OFF_SHIFT SYM_LSB(RcvPktLEDCnt_0, OFFperiod)
1089 #define IBA7322_LEDBLINK_ON_SHIFT SYM_LSB(RcvPktLEDCnt_0, ONperiod)
1090
1091 #define IBA7322_IBC_WIDTH_AUTONEG SYM_MASK(IBCCtrlB_0, IB_NUM_CHANNELS)
1092 #define IBA7322_IBC_WIDTH_4X_ONLY (1<<SYM_LSB(IBCCtrlB_0, IB_NUM_CHANNELS))
1093 #define IBA7322_IBC_WIDTH_1X_ONLY (0<<SYM_LSB(IBCCtrlB_0, IB_NUM_CHANNELS))
1094
1095 #define IBA7322_IBC_RXPOL_MASK SYM_MASK(IBCCtrlB_0, IB_POLARITY_REV_SUPP)
1096 #define IBA7322_IBC_RXPOL_LSB SYM_LSB(IBCCtrlB_0, IB_POLARITY_REV_SUPP)
1097 #define IBA7322_IBC_HRTBT_MASK (SYM_MASK(IBCCtrlB_0, HRTBT_AUTO) | \
1098         SYM_MASK(IBCCtrlB_0, HRTBT_ENB))
1099 #define IBA7322_IBC_HRTBT_RMASK (IBA7322_IBC_HRTBT_MASK >> \
1100         SYM_LSB(IBCCtrlB_0, HRTBT_ENB))
1101 #define IBA7322_IBC_HRTBT_LSB SYM_LSB(IBCCtrlB_0, HRTBT_ENB)
1102
1103 #define IBA7322_REDIRECT_VEC_PER_REG 12
1104
1105 #define IBA7322_SENDCHK_PKEY SYM_MASK(SendCheckControl_0, PKey_En)
1106 #define IBA7322_SENDCHK_BTHQP SYM_MASK(SendCheckControl_0, BTHQP_En)
1107 #define IBA7322_SENDCHK_SLID SYM_MASK(SendCheckControl_0, SLID_En)
1108 #define IBA7322_SENDCHK_RAW_IPV6 SYM_MASK(SendCheckControl_0, RawIPV6_En)
1109 #define IBA7322_SENDCHK_MINSZ SYM_MASK(SendCheckControl_0, PacketTooSmall_En)
1110
1111 #define AUTONEG_TRIES 3 /* sequential retries to negotiate DDR */
1112
1113 #define HWE_AUTO(fldname) { .mask = SYM_MASK(HwErrMask, fldname##Mask), \
1114         .msg = #fldname , .sz = sizeof(#fldname) }
1115 #define HWE_AUTO_P(fldname, port) { .mask = SYM_MASK(HwErrMask, \
1116         fldname##Mask##_##port), .msg = #fldname , .sz = sizeof(#fldname) }
1117 static const struct qib_hwerror_msgs qib_7322_hwerror_msgs[] = {
1118         HWE_AUTO_P(IBSerdesPClkNotDetect, 1),
1119         HWE_AUTO_P(IBSerdesPClkNotDetect, 0),
1120         HWE_AUTO(PCIESerdesPClkNotDetect),
1121         HWE_AUTO(PowerOnBISTFailed),
1122         HWE_AUTO(TempsenseTholdReached),
1123         HWE_AUTO(MemoryErr),
1124         HWE_AUTO(PCIeBusParityErr),
1125         HWE_AUTO(PcieCplTimeout),
1126         HWE_AUTO(PciePoisonedTLP),
1127         HWE_AUTO_P(SDmaMemReadErr, 1),
1128         HWE_AUTO_P(SDmaMemReadErr, 0),
1129         HWE_AUTO_P(IBCBusFromSPCParityErr, 1),
1130         HWE_AUTO_P(IBCBusToSPCParityErr, 1),
1131         HWE_AUTO_P(IBCBusFromSPCParityErr, 0),
1132         HWE_AUTO(statusValidNoEop),
1133         HWE_AUTO(LATriggered),
1134         { .mask = 0, .sz = 0 }
1135 };
1136
1137 #define E_AUTO(fldname) { .mask = SYM_MASK(ErrMask, fldname##Mask), \
1138         .msg = #fldname, .sz = sizeof(#fldname) }
1139 #define E_P_AUTO(fldname) { .mask = SYM_MASK(ErrMask_0, fldname##Mask), \
1140         .msg = #fldname, .sz = sizeof(#fldname) }
1141 static const struct qib_hwerror_msgs qib_7322error_msgs[] = {
1142         E_AUTO(RcvEgrFullErr),
1143         E_AUTO(RcvHdrFullErr),
1144         E_AUTO(ResetNegated),
1145         E_AUTO(HardwareErr),
1146         E_AUTO(InvalidAddrErr),
1147         E_AUTO(SDmaVL15Err),
1148         E_AUTO(SBufVL15MisUseErr),
1149         E_AUTO(InvalidEEPCmd),
1150         E_AUTO(RcvContextShareErr),
1151         E_AUTO(SendVLMismatchErr),
1152         E_AUTO(SendArmLaunchErr),
1153         E_AUTO(SendSpecialTriggerErr),
1154         E_AUTO(SDmaWrongPortErr),
1155         E_AUTO(SDmaBufMaskDuplicateErr),
1156         { .mask = 0, .sz = 0 }
1157 };
1158
1159 static const struct  qib_hwerror_msgs qib_7322p_error_msgs[] = {
1160         E_P_AUTO(IBStatusChanged),
1161         E_P_AUTO(SHeadersErr),
1162         E_P_AUTO(VL15BufMisuseErr),
1163         /*
1164          * SDmaHaltErr is not really an error, make it clearer;
1165          */
1166         {.mask = SYM_MASK(ErrMask_0, SDmaHaltErrMask), .msg = "SDmaHalted",
1167                 .sz = 11},
1168         E_P_AUTO(SDmaDescAddrMisalignErr),
1169         E_P_AUTO(SDmaUnexpDataErr),
1170         E_P_AUTO(SDmaMissingDwErr),
1171         E_P_AUTO(SDmaDwEnErr),
1172         E_P_AUTO(SDmaRpyTagErr),
1173         E_P_AUTO(SDma1stDescErr),
1174         E_P_AUTO(SDmaBaseErr),
1175         E_P_AUTO(SDmaTailOutOfBoundErr),
1176         E_P_AUTO(SDmaOutOfBoundErr),
1177         E_P_AUTO(SDmaGenMismatchErr),
1178         E_P_AUTO(SendBufMisuseErr),
1179         E_P_AUTO(SendUnsupportedVLErr),
1180         E_P_AUTO(SendUnexpectedPktNumErr),
1181         E_P_AUTO(SendDroppedDataPktErr),
1182         E_P_AUTO(SendDroppedSmpPktErr),
1183         E_P_AUTO(SendPktLenErr),
1184         E_P_AUTO(SendUnderRunErr),
1185         E_P_AUTO(SendMaxPktLenErr),
1186         E_P_AUTO(SendMinPktLenErr),
1187         E_P_AUTO(RcvIBLostLinkErr),
1188         E_P_AUTO(RcvHdrErr),
1189         E_P_AUTO(RcvHdrLenErr),
1190         E_P_AUTO(RcvBadTidErr),
1191         E_P_AUTO(RcvBadVersionErr),
1192         E_P_AUTO(RcvIBFlowErr),
1193         E_P_AUTO(RcvEBPErr),
1194         E_P_AUTO(RcvUnsupportedVLErr),
1195         E_P_AUTO(RcvUnexpectedCharErr),
1196         E_P_AUTO(RcvShortPktLenErr),
1197         E_P_AUTO(RcvLongPktLenErr),
1198         E_P_AUTO(RcvMaxPktLenErr),
1199         E_P_AUTO(RcvMinPktLenErr),
1200         E_P_AUTO(RcvICRCErr),
1201         E_P_AUTO(RcvVCRCErr),
1202         E_P_AUTO(RcvFormatErr),
1203         { .mask = 0, .sz = 0 }
1204 };
1205
1206 /*
1207  * Below generates "auto-message" for interrupts not specific to any port or
1208  * context
1209  */
1210 #define INTR_AUTO(fldname) { .mask = SYM_MASK(IntMask, fldname##Mask), \
1211         .msg = #fldname, .sz = sizeof(#fldname) }
1212 /* Below generates "auto-message" for interrupts specific to a port */
1213 #define INTR_AUTO_P(fldname) { .mask = MASK_ACROSS(\
1214         SYM_LSB(IntMask, fldname##Mask##_0), \
1215         SYM_LSB(IntMask, fldname##Mask##_1)), \
1216         .msg = #fldname "_P", .sz = sizeof(#fldname "_P") }
1217 /* For some reason, the SerDesTrimDone bits are reversed */
1218 #define INTR_AUTO_PI(fldname) { .mask = MASK_ACROSS(\
1219         SYM_LSB(IntMask, fldname##Mask##_1), \
1220         SYM_LSB(IntMask, fldname##Mask##_0)), \
1221         .msg = #fldname "_P", .sz = sizeof(#fldname "_P") }
1222 /*
1223  * Below generates "auto-message" for interrupts specific to a context,
1224  * with ctxt-number appended
1225  */
1226 #define INTR_AUTO_C(fldname) { .mask = MASK_ACROSS(\
1227         SYM_LSB(IntMask, fldname##0IntMask), \
1228         SYM_LSB(IntMask, fldname##17IntMask)), \
1229         .msg = #fldname "_C", .sz = sizeof(#fldname "_C") }
1230
1231 static const struct  qib_hwerror_msgs qib_7322_intr_msgs[] = {
1232         INTR_AUTO_P(SDmaInt),
1233         INTR_AUTO_P(SDmaProgressInt),
1234         INTR_AUTO_P(SDmaIdleInt),
1235         INTR_AUTO_P(SDmaCleanupDone),
1236         INTR_AUTO_C(RcvUrg),
1237         INTR_AUTO_P(ErrInt),
1238         INTR_AUTO(ErrInt),      /* non-port-specific errs */
1239         INTR_AUTO(AssertGPIOInt),
1240         INTR_AUTO_P(SendDoneInt),
1241         INTR_AUTO(SendBufAvailInt),
1242         INTR_AUTO_C(RcvAvail),
1243         { .mask = 0, .sz = 0 }
1244 };
1245
1246 #define TXSYMPTOM_AUTO_P(fldname) \
1247         { .mask = SYM_MASK(SendHdrErrSymptom_0, fldname), \
1248         .msg = #fldname, .sz = sizeof(#fldname) }
1249 static const struct  qib_hwerror_msgs hdrchk_msgs[] = {
1250         TXSYMPTOM_AUTO_P(NonKeyPacket),
1251         TXSYMPTOM_AUTO_P(GRHFail),
1252         TXSYMPTOM_AUTO_P(PkeyFail),
1253         TXSYMPTOM_AUTO_P(QPFail),
1254         TXSYMPTOM_AUTO_P(SLIDFail),
1255         TXSYMPTOM_AUTO_P(RawIPV6),
1256         TXSYMPTOM_AUTO_P(PacketTooSmall),
1257         { .mask = 0, .sz = 0 }
1258 };
1259
1260 #define IBA7322_HDRHEAD_PKTINT_SHIFT 32 /* interrupt cnt in upper 32 bits */
1261
1262 /*
1263  * Called when we might have an error that is specific to a particular
1264  * PIO buffer, and may need to cancel that buffer, so it can be re-used,
1265  * because we don't need to force the update of pioavail
1266  */
1267 static void qib_disarm_7322_senderrbufs(struct qib_pportdata *ppd)
1268 {
1269         struct qib_devdata *dd = ppd->dd;
1270         u32 i;
1271         int any;
1272         u32 piobcnt = dd->piobcnt2k + dd->piobcnt4k + NUM_VL15_BUFS;
1273         u32 regcnt = (piobcnt + BITS_PER_LONG - 1) / BITS_PER_LONG;
1274         unsigned long sbuf[4];
1275
1276         /*
1277          * It's possible that sendbuffererror could have bits set; might
1278          * have already done this as a result of hardware error handling.
1279          */
1280         any = 0;
1281         for (i = 0; i < regcnt; ++i) {
1282                 sbuf[i] = qib_read_kreg64(dd, kr_sendbuffererror + i);
1283                 if (sbuf[i]) {
1284                         any = 1;
1285                         qib_write_kreg(dd, kr_sendbuffererror + i, sbuf[i]);
1286                 }
1287         }
1288
1289         if (any)
1290                 qib_disarm_piobufs_set(dd, sbuf, piobcnt);
1291 }
1292
1293 /* No txe_recover yet, if ever */
1294
1295 /* No decode__errors yet */
1296 static void err_decode(char *msg, size_t len, u64 errs,
1297                        const struct qib_hwerror_msgs *msp)
1298 {
1299         u64 these, lmask;
1300         int took, multi, n = 0;
1301
1302         while (errs && msp && msp->mask) {
1303                 multi = (msp->mask & (msp->mask - 1));
1304                 while (errs & msp->mask) {
1305                         these = (errs & msp->mask);
1306                         lmask = (these & (these - 1)) ^ these;
1307                         if (len) {
1308                                 if (n++) {
1309                                         /* separate the strings */
1310                                         *msg++ = ',';
1311                                         len--;
1312                                 }
1313                                 BUG_ON(!msp->sz);
1314                                 /* msp->sz counts the nul */
1315                                 took = min_t(size_t, msp->sz - (size_t)1, len);
1316                                 memcpy(msg,  msp->msg, took);
1317                                 len -= took;
1318                                 msg += took;
1319                                 if (len)
1320                                         *msg = '\0';
1321                         }
1322                         errs &= ~lmask;
1323                         if (len && multi) {
1324                                 /* More than one bit this mask */
1325                                 int idx = -1;
1326
1327                                 while (lmask & msp->mask) {
1328                                         ++idx;
1329                                         lmask >>= 1;
1330                                 }
1331                                 took = scnprintf(msg, len, "_%d", idx);
1332                                 len -= took;
1333                                 msg += took;
1334                         }
1335                 }
1336                 ++msp;
1337         }
1338         /* If some bits are left, show in hex. */
1339         if (len && errs)
1340                 snprintf(msg, len, "%sMORE:%llX", n ? "," : "",
1341                         (unsigned long long) errs);
1342 }
1343
1344 /* only called if r1 set */
1345 static void flush_fifo(struct qib_pportdata *ppd)
1346 {
1347         struct qib_devdata *dd = ppd->dd;
1348         u32 __iomem *piobuf;
1349         u32 bufn;
1350         u32 *hdr;
1351         u64 pbc;
1352         const unsigned hdrwords = 7;
1353         static struct qib_ib_header ibhdr = {
1354                 .lrh[0] = cpu_to_be16(0xF000 | QIB_LRH_BTH),
1355                 .lrh[1] = IB_LID_PERMISSIVE,
1356                 .lrh[2] = cpu_to_be16(hdrwords + SIZE_OF_CRC),
1357                 .lrh[3] = IB_LID_PERMISSIVE,
1358                 .u.oth.bth[0] = cpu_to_be32(
1359                         (IB_OPCODE_UD_SEND_ONLY << 24) | QIB_DEFAULT_P_KEY),
1360                 .u.oth.bth[1] = cpu_to_be32(0),
1361                 .u.oth.bth[2] = cpu_to_be32(0),
1362                 .u.oth.u.ud.deth[0] = cpu_to_be32(0),
1363                 .u.oth.u.ud.deth[1] = cpu_to_be32(0),
1364         };
1365
1366         /*
1367          * Send a dummy VL15 packet to flush the launch FIFO.
1368          * This will not actually be sent since the TxeBypassIbc bit is set.
1369          */
1370         pbc = PBC_7322_VL15_SEND |
1371                 (((u64)ppd->hw_pidx) << (PBC_PORT_SEL_LSB + 32)) |
1372                 (hdrwords + SIZE_OF_CRC);
1373         piobuf = qib_7322_getsendbuf(ppd, pbc, &bufn);
1374         if (!piobuf)
1375                 return;
1376         writeq(pbc, piobuf);
1377         hdr = (u32 *) &ibhdr;
1378         if (dd->flags & QIB_PIO_FLUSH_WC) {
1379                 qib_flush_wc();
1380                 qib_pio_copy(piobuf + 2, hdr, hdrwords - 1);
1381                 qib_flush_wc();
1382                 __raw_writel(hdr[hdrwords - 1], piobuf + hdrwords + 1);
1383                 qib_flush_wc();
1384         } else
1385                 qib_pio_copy(piobuf + 2, hdr, hdrwords);
1386         qib_sendbuf_done(dd, bufn);
1387 }
1388
1389 /*
1390  * This is called with interrupts disabled and sdma_lock held.
1391  */
1392 static void qib_7322_sdma_sendctrl(struct qib_pportdata *ppd, unsigned op)
1393 {
1394         struct qib_devdata *dd = ppd->dd;
1395         u64 set_sendctrl = 0;
1396         u64 clr_sendctrl = 0;
1397
1398         if (op & QIB_SDMA_SENDCTRL_OP_ENABLE)
1399                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaEnable);
1400         else
1401                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaEnable);
1402
1403         if (op & QIB_SDMA_SENDCTRL_OP_INTENABLE)
1404                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaIntEnable);
1405         else
1406                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaIntEnable);
1407
1408         if (op & QIB_SDMA_SENDCTRL_OP_HALT)
1409                 set_sendctrl |= SYM_MASK(SendCtrl_0, SDmaHalt);
1410         else
1411                 clr_sendctrl |= SYM_MASK(SendCtrl_0, SDmaHalt);
1412
1413         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN)
1414                 set_sendctrl |= SYM_MASK(SendCtrl_0, TxeBypassIbc) |
1415                                 SYM_MASK(SendCtrl_0, TxeAbortIbc) |
1416                                 SYM_MASK(SendCtrl_0, TxeDrainRmFifo);
1417         else
1418                 clr_sendctrl |= SYM_MASK(SendCtrl_0, TxeBypassIbc) |
1419                                 SYM_MASK(SendCtrl_0, TxeAbortIbc) |
1420                                 SYM_MASK(SendCtrl_0, TxeDrainRmFifo);
1421
1422         spin_lock(&dd->sendctrl_lock);
1423
1424         /* If we are draining everything, block sends first */
1425         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN) {
1426                 ppd->p_sendctrl &= ~SYM_MASK(SendCtrl_0, SendEnable);
1427                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1428                 qib_write_kreg(dd, kr_scratch, 0);
1429         }
1430
1431         ppd->p_sendctrl |= set_sendctrl;
1432         ppd->p_sendctrl &= ~clr_sendctrl;
1433
1434         if (op & QIB_SDMA_SENDCTRL_OP_CLEANUP)
1435                 qib_write_kreg_port(ppd, krp_sendctrl,
1436                                     ppd->p_sendctrl |
1437                                     SYM_MASK(SendCtrl_0, SDmaCleanup));
1438         else
1439                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1440         qib_write_kreg(dd, kr_scratch, 0);
1441
1442         if (op & QIB_SDMA_SENDCTRL_OP_DRAIN) {
1443                 ppd->p_sendctrl |= SYM_MASK(SendCtrl_0, SendEnable);
1444                 qib_write_kreg_port(ppd, krp_sendctrl, ppd->p_sendctrl);
1445                 qib_write_kreg(dd, kr_scratch, 0);
1446         }
1447
1448         spin_unlock(&dd->sendctrl_lock);
1449
1450         if ((op & QIB_SDMA_SENDCTRL_OP_DRAIN) && ppd->dd->cspec->r1)
1451                 flush_fifo(ppd);
1452 }
1453
1454 static void qib_7322_sdma_hw_clean_up(struct qib_pportdata *ppd)
1455 {
1456         __qib_sdma_process_event(ppd, qib_sdma_event_e50_hw_cleaned);
1457 }
1458
1459 static void qib_sdma_7322_setlengen(struct qib_pportdata *ppd)
1460 {
1461         /*
1462          * Set SendDmaLenGen and clear and set
1463          * the MSB of the generation count to enable generation checking
1464          * and load the internal generation counter.
1465          */
1466         qib_write_kreg_port(ppd, krp_senddmalengen, ppd->sdma_descq_cnt);
1467         qib_write_kreg_port(ppd, krp_senddmalengen,
1468                             ppd->sdma_descq_cnt |
1469                             (1ULL << QIB_7322_SendDmaLenGen_0_Generation_MSB));
1470 }
1471
1472 /*
1473  * Must be called with sdma_lock held, or before init finished.
1474  */
1475 static void qib_sdma_update_7322_tail(struct qib_pportdata *ppd, u16 tail)
1476 {
1477         /* Commit writes to memory and advance the tail on the chip */
1478         wmb();
1479         ppd->sdma_descq_tail = tail;
1480         qib_write_kreg_port(ppd, krp_senddmatail, tail);
1481 }
1482
1483 /*
1484  * This is called with interrupts disabled and sdma_lock held.
1485  */
1486 static void qib_7322_sdma_hw_start_up(struct qib_pportdata *ppd)
1487 {
1488         /*
1489          * Drain all FIFOs.
1490          * The hardware doesn't require this but we do it so that verbs
1491          * and user applications don't wait for link active to send stale
1492          * data.
1493          */
1494         sendctrl_7322_mod(ppd, QIB_SENDCTRL_FLUSH);
1495
1496         qib_sdma_7322_setlengen(ppd);
1497         qib_sdma_update_7322_tail(ppd, 0); /* Set SendDmaTail */
1498         ppd->sdma_head_dma[0] = 0;
1499         qib_7322_sdma_sendctrl(ppd,
1500                 ppd->sdma_state.current_op | QIB_SDMA_SENDCTRL_OP_CLEANUP);
1501 }
1502
1503 #define DISABLES_SDMA ( \
1504         QIB_E_P_SDMAHALT | \
1505         QIB_E_P_SDMADESCADDRMISALIGN | \
1506         QIB_E_P_SDMAMISSINGDW | \
1507         QIB_E_P_SDMADWEN | \
1508         QIB_E_P_SDMARPYTAG | \
1509         QIB_E_P_SDMA1STDESC | \
1510         QIB_E_P_SDMABASE | \
1511         QIB_E_P_SDMATAILOUTOFBOUND | \
1512         QIB_E_P_SDMAOUTOFBOUND | \
1513         QIB_E_P_SDMAGENMISMATCH)
1514
1515 static void sdma_7322_p_errors(struct qib_pportdata *ppd, u64 errs)
1516 {
1517         unsigned long flags;
1518         struct qib_devdata *dd = ppd->dd;
1519
1520         errs &= QIB_E_P_SDMAERRS;
1521
1522         if (errs & QIB_E_P_SDMAUNEXPDATA)
1523                 qib_dev_err(dd, "IB%u:%u SDmaUnexpData\n", dd->unit,
1524                             ppd->port);
1525
1526         spin_lock_irqsave(&ppd->sdma_lock, flags);
1527
1528         switch (ppd->sdma_state.current_state) {
1529         case qib_sdma_state_s00_hw_down:
1530                 break;
1531
1532         case qib_sdma_state_s10_hw_start_up_wait:
1533                 if (errs & QIB_E_P_SDMAHALT)
1534                         __qib_sdma_process_event(ppd,
1535                                 qib_sdma_event_e20_hw_started);
1536                 break;
1537
1538         case qib_sdma_state_s20_idle:
1539                 break;
1540
1541         case qib_sdma_state_s30_sw_clean_up_wait:
1542                 break;
1543
1544         case qib_sdma_state_s40_hw_clean_up_wait:
1545                 if (errs & QIB_E_P_SDMAHALT)
1546                         __qib_sdma_process_event(ppd,
1547                                 qib_sdma_event_e50_hw_cleaned);
1548                 break;
1549
1550         case qib_sdma_state_s50_hw_halt_wait:
1551                 if (errs & QIB_E_P_SDMAHALT)
1552                         __qib_sdma_process_event(ppd,
1553                                 qib_sdma_event_e60_hw_halted);
1554                 break;
1555
1556         case qib_sdma_state_s99_running:
1557                 __qib_sdma_process_event(ppd, qib_sdma_event_e7322_err_halted);
1558                 __qib_sdma_process_event(ppd, qib_sdma_event_e60_hw_halted);
1559                 break;
1560         }
1561
1562         spin_unlock_irqrestore(&ppd->sdma_lock, flags);
1563 }
1564
1565 /*
1566  * handle per-device errors (not per-port errors)
1567  */
1568 static noinline void handle_7322_errors(struct qib_devdata *dd)
1569 {
1570         char *msg;
1571         u64 iserr = 0;
1572         u64 errs;
1573         u64 mask;
1574         int log_idx;
1575
1576         qib_stats.sps_errints++;
1577         errs = qib_read_kreg64(dd, kr_errstatus);
1578         if (!errs) {
1579                 qib_devinfo(dd->pcidev, "device error interrupt, "
1580                          "but no error bits set!\n");
1581                 goto done;
1582         }
1583
1584         /* don't report errors that are masked */
1585         errs &= dd->cspec->errormask;
1586         msg = dd->cspec->emsgbuf;
1587
1588         /* do these first, they are most important */
1589         if (errs & QIB_E_HARDWARE) {
1590                 *msg = '\0';
1591                 qib_7322_handle_hwerrors(dd, msg, sizeof dd->cspec->emsgbuf);
1592         } else
1593                 for (log_idx = 0; log_idx < QIB_EEP_LOG_CNT; ++log_idx)
1594                         if (errs & dd->eep_st_masks[log_idx].errs_to_log)
1595                                 qib_inc_eeprom_err(dd, log_idx, 1);
1596
1597         if (errs & QIB_E_SPKTERRS) {
1598                 qib_disarm_7322_senderrbufs(dd->pport);
1599                 qib_stats.sps_txerrs++;
1600         } else if (errs & QIB_E_INVALIDADDR)
1601                 qib_stats.sps_txerrs++;
1602         else if (errs & QIB_E_ARMLAUNCH) {
1603                 qib_stats.sps_txerrs++;
1604                 qib_disarm_7322_senderrbufs(dd->pport);
1605         }
1606         qib_write_kreg(dd, kr_errclear, errs);
1607
1608         /*
1609          * The ones we mask off are handled specially below
1610          * or above.  Also mask SDMADISABLED by default as it
1611          * is too chatty.
1612          */
1613         mask = QIB_E_HARDWARE;
1614         *msg = '\0';
1615
1616         err_decode(msg, sizeof dd->cspec->emsgbuf, errs & ~mask,
1617                    qib_7322error_msgs);
1618
1619         /*
1620          * Getting reset is a tragedy for all ports. Mark the device
1621          * _and_ the ports as "offline" in way meaningful to each.
1622          */
1623         if (errs & QIB_E_RESET) {
1624                 int pidx;
1625
1626                 qib_dev_err(dd, "Got reset, requires re-init "
1627                             "(unload and reload driver)\n");
1628                 dd->flags &= ~QIB_INITTED;  /* needs re-init */
1629                 /* mark as having had error */
1630                 *dd->devstatusp |= QIB_STATUS_HWERROR;
1631                 for (pidx = 0; pidx < dd->num_pports; ++pidx)
1632                         if (dd->pport[pidx].link_speed_supported)
1633                                 *dd->pport[pidx].statusp &= ~QIB_STATUS_IB_CONF;
1634         }
1635
1636         if (*msg && iserr)
1637                 qib_dev_err(dd, "%s error\n", msg);
1638
1639         /*
1640          * If there were hdrq or egrfull errors, wake up any processes
1641          * waiting in poll.  We used to try to check which contexts had
1642          * the overflow, but given the cost of that and the chip reads
1643          * to support it, it's better to just wake everybody up if we
1644          * get an overflow; waiters can poll again if it's not them.
1645          */
1646         if (errs & (ERR_MASK(RcvEgrFullErr) | ERR_MASK(RcvHdrFullErr))) {
1647                 qib_handle_urcv(dd, ~0U);
1648                 if (errs & ERR_MASK(RcvEgrFullErr))
1649                         qib_stats.sps_buffull++;
1650                 else
1651                         qib_stats.sps_hdrfull++;
1652         }
1653
1654 done:
1655         return;
1656 }
1657
1658 static void qib_error_tasklet(unsigned long data)
1659 {
1660         struct qib_devdata *dd = (struct qib_devdata *)data;
1661
1662         handle_7322_errors(dd);
1663         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
1664 }
1665
1666 static void reenable_chase(unsigned long opaque)
1667 {
1668         struct qib_pportdata *ppd = (struct qib_pportdata *)opaque;
1669
1670         ppd->cpspec->chase_timer.expires = 0;
1671         qib_set_ib_7322_lstate(ppd, QLOGIC_IB_IBCC_LINKCMD_DOWN,
1672                 QLOGIC_IB_IBCC_LINKINITCMD_POLL);
1673 }
1674
1675 static void disable_chase(struct qib_pportdata *ppd, u64 tnow, u8 ibclt)
1676 {
1677         ppd->cpspec->chase_end = 0;
1678
1679         if (!qib_chase)
1680                 return;
1681
1682         qib_set_ib_7322_lstate(ppd, QLOGIC_IB_IBCC_LINKCMD_DOWN,
1683                 QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
1684         ppd->cpspec->chase_timer.expires = jiffies + QIB_CHASE_DIS_TIME;
1685         add_timer(&ppd->cpspec->chase_timer);
1686 }
1687
1688 static void handle_serdes_issues(struct qib_pportdata *ppd, u64 ibcst)
1689 {
1690         u8 ibclt;
1691         u64 tnow;
1692
1693         ibclt = (u8)SYM_FIELD(ibcst, IBCStatusA_0, LinkTrainingState);
1694
1695         /*
1696          * Detect and handle the state chase issue, where we can
1697          * get stuck if we are unlucky on timing on both sides of
1698          * the link.   If we are, we disable, set a timer, and
1699          * then re-enable.
1700          */
1701         switch (ibclt) {
1702         case IB_7322_LT_STATE_CFGRCVFCFG:
1703         case IB_7322_LT_STATE_CFGWAITRMT:
1704         case IB_7322_LT_STATE_TXREVLANES:
1705         case IB_7322_LT_STATE_CFGENH:
1706                 tnow = get_jiffies_64();
1707                 if (ppd->cpspec->chase_end &&
1708                      time_after64(tnow, ppd->cpspec->chase_end))
1709                         disable_chase(ppd, tnow, ibclt);
1710                 else if (!ppd->cpspec->chase_end)
1711                         ppd->cpspec->chase_end = tnow + QIB_CHASE_TIME;
1712                 break;
1713         default:
1714                 ppd->cpspec->chase_end = 0;
1715                 break;
1716         }
1717
1718         if (((ibclt >= IB_7322_LT_STATE_CFGTEST &&
1719               ibclt <= IB_7322_LT_STATE_CFGWAITENH) ||
1720              ibclt == IB_7322_LT_STATE_LINKUP) &&
1721             (ibcst & SYM_MASK(IBCStatusA_0, LinkSpeedQDR))) {
1722                 force_h1(ppd);
1723                 ppd->cpspec->qdr_reforce = 1;
1724                 if (!ppd->dd->cspec->r1)
1725                         serdes_7322_los_enable(ppd, 0);
1726         } else if (ppd->cpspec->qdr_reforce &&
1727                 (ibcst & SYM_MASK(IBCStatusA_0, LinkSpeedQDR)) &&
1728                  (ibclt == IB_7322_LT_STATE_CFGENH ||
1729                 ibclt == IB_7322_LT_STATE_CFGIDLE ||
1730                 ibclt == IB_7322_LT_STATE_LINKUP))
1731                 force_h1(ppd);
1732
1733         if ((IS_QMH(ppd->dd) || IS_QME(ppd->dd)) &&
1734             ppd->link_speed_enabled == QIB_IB_QDR &&
1735             (ibclt == IB_7322_LT_STATE_CFGTEST ||
1736              ibclt == IB_7322_LT_STATE_CFGENH ||
1737              (ibclt >= IB_7322_LT_STATE_POLLACTIVE &&
1738               ibclt <= IB_7322_LT_STATE_SLEEPQUIET)))
1739                 adj_tx_serdes(ppd);
1740
1741         if (ibclt != IB_7322_LT_STATE_LINKUP) {
1742                 u8 ltstate = qib_7322_phys_portstate(ibcst);
1743                 u8 pibclt = (u8)SYM_FIELD(ppd->lastibcstat, IBCStatusA_0,
1744                                           LinkTrainingState);
1745                 if (!ppd->dd->cspec->r1 &&
1746                     pibclt == IB_7322_LT_STATE_LINKUP &&
1747                     ltstate != IB_PHYSPORTSTATE_LINK_ERR_RECOVER &&
1748                     ltstate != IB_PHYSPORTSTATE_RECOVERY_RETRAIN &&
1749                     ltstate != IB_PHYSPORTSTATE_RECOVERY_WAITRMT &&
1750                     ltstate != IB_PHYSPORTSTATE_RECOVERY_IDLE)
1751                         /* If the link went down (but no into recovery,
1752                          * turn LOS back on */
1753                         serdes_7322_los_enable(ppd, 1);
1754                 if (!ppd->cpspec->qdr_dfe_on &&
1755                     ibclt <= IB_7322_LT_STATE_SLEEPQUIET) {
1756                         ppd->cpspec->qdr_dfe_on = 1;
1757                         ppd->cpspec->qdr_dfe_time = 0;
1758                         /* On link down, reenable QDR adaptation */
1759                         qib_write_kreg_port(ppd, krp_static_adapt_dis(2),
1760                                             ppd->dd->cspec->r1 ?
1761                                             QDR_STATIC_ADAPT_DOWN_R1 :
1762                                             QDR_STATIC_ADAPT_DOWN);
1763                         printk(KERN_INFO QIB_DRV_NAME
1764                                 " IB%u:%u re-enabled QDR adaptation "
1765                                 "ibclt %x\n", ppd->dd->unit, ppd->port, ibclt);
1766                 }
1767         }
1768 }
1769
1770 static int qib_7322_set_ib_cfg(struct qib_pportdata *, int, u32);
1771
1772 /*
1773  * This is per-pport error handling.
1774  * will likely get it's own MSIx interrupt (one for each port,
1775  * although just a single handler).
1776  */
1777 static noinline void handle_7322_p_errors(struct qib_pportdata *ppd)
1778 {
1779         char *msg;
1780         u64 ignore_this_time = 0, iserr = 0, errs, fmask;
1781         struct qib_devdata *dd = ppd->dd;
1782
1783         /* do this as soon as possible */
1784         fmask = qib_read_kreg64(dd, kr_act_fmask);
1785         if (!fmask)
1786                 check_7322_rxe_status(ppd);
1787
1788         errs = qib_read_kreg_port(ppd, krp_errstatus);
1789         if (!errs)
1790                 qib_devinfo(dd->pcidev,
1791                          "Port%d error interrupt, but no error bits set!\n",
1792                          ppd->port);
1793         if (!fmask)
1794                 errs &= ~QIB_E_P_IBSTATUSCHANGED;
1795         if (!errs)
1796                 goto done;
1797
1798         msg = ppd->cpspec->epmsgbuf;
1799         *msg = '\0';
1800
1801         if (errs & ~QIB_E_P_BITSEXTANT) {
1802                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf,
1803                            errs & ~QIB_E_P_BITSEXTANT, qib_7322p_error_msgs);
1804                 if (!*msg)
1805                         snprintf(msg, sizeof ppd->cpspec->epmsgbuf,
1806                                  "no others");
1807                 qib_dev_porterr(dd, ppd->port, "error interrupt with unknown"
1808                                 " errors 0x%016Lx set (and %s)\n",
1809                                 (errs & ~QIB_E_P_BITSEXTANT), msg);
1810                 *msg = '\0';
1811         }
1812
1813         if (errs & QIB_E_P_SHDR) {
1814                 u64 symptom;
1815
1816                 /* determine cause, then write to clear */
1817                 symptom = qib_read_kreg_port(ppd, krp_sendhdrsymptom);
1818                 qib_write_kreg_port(ppd, krp_sendhdrsymptom, 0);
1819                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf, symptom,
1820                            hdrchk_msgs);
1821                 *msg = '\0';
1822                 /* senderrbuf cleared in SPKTERRS below */
1823         }
1824
1825         if (errs & QIB_E_P_SPKTERRS) {
1826                 if ((errs & QIB_E_P_LINK_PKTERRS) &&
1827                     !(ppd->lflags & QIBL_LINKACTIVE)) {
1828                         /*
1829                          * This can happen when trying to bring the link
1830                          * up, but the IB link changes state at the "wrong"
1831                          * time. The IB logic then complains that the packet
1832                          * isn't valid.  We don't want to confuse people, so
1833                          * we just don't print them, except at debug
1834                          */
1835                         err_decode(msg, sizeof ppd->cpspec->epmsgbuf,
1836                                    (errs & QIB_E_P_LINK_PKTERRS),
1837                                    qib_7322p_error_msgs);
1838                         *msg = '\0';
1839                         ignore_this_time = errs & QIB_E_P_LINK_PKTERRS;
1840                 }
1841                 qib_disarm_7322_senderrbufs(ppd);
1842         } else if ((errs & QIB_E_P_LINK_PKTERRS) &&
1843                    !(ppd->lflags & QIBL_LINKACTIVE)) {
1844                 /*
1845                  * This can happen when SMA is trying to bring the link
1846                  * up, but the IB link changes state at the "wrong" time.
1847                  * The IB logic then complains that the packet isn't
1848                  * valid.  We don't want to confuse people, so we just
1849                  * don't print them, except at debug
1850                  */
1851                 err_decode(msg, sizeof ppd->cpspec->epmsgbuf, errs,
1852                            qib_7322p_error_msgs);
1853                 ignore_this_time = errs & QIB_E_P_LINK_PKTERRS;
1854                 *msg = '\0';
1855         }
1856
1857         qib_write_kreg_port(ppd, krp_errclear, errs);
1858
1859         errs &= ~ignore_this_time;
1860         if (!errs)
1861                 goto done;
1862
1863         if (errs & QIB_E_P_RPKTERRS)
1864                 qib_stats.sps_rcverrs++;
1865         if (errs & QIB_E_P_SPKTERRS)
1866                 qib_stats.sps_txerrs++;
1867
1868         iserr = errs & ~(QIB_E_P_RPKTERRS | QIB_E_P_PKTERRS);
1869
1870         if (errs & QIB_E_P_SDMAERRS)
1871                 sdma_7322_p_errors(ppd, errs);
1872
1873         if (errs & QIB_E_P_IBSTATUSCHANGED) {
1874                 u64 ibcs;
1875                 u8 ltstate;
1876
1877                 ibcs = qib_read_kreg_port(ppd, krp_ibcstatus_a);
1878                 ltstate = qib_7322_phys_portstate(ibcs);
1879
1880                 if (!(ppd->lflags & QIBL_IB_AUTONEG_INPROG))
1881                         handle_serdes_issues(ppd, ibcs);
1882                 if (!(ppd->cpspec->ibcctrl_a &
1883                       SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn))) {
1884                         /*
1885                          * We got our interrupt, so init code should be
1886                          * happy and not try alternatives. Now squelch
1887                          * other "chatter" from link-negotiation (pre Init)
1888                          */
1889                         ppd->cpspec->ibcctrl_a |=
1890                                 SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn);
1891                         qib_write_kreg_port(ppd, krp_ibcctrl_a,
1892                                             ppd->cpspec->ibcctrl_a);
1893                 }
1894
1895                 /* Update our picture of width and speed from chip */
1896                 ppd->link_width_active =
1897                         (ibcs & SYM_MASK(IBCStatusA_0, LinkWidthActive)) ?
1898                             IB_WIDTH_4X : IB_WIDTH_1X;
1899                 ppd->link_speed_active = (ibcs & SYM_MASK(IBCStatusA_0,
1900                         LinkSpeedQDR)) ? QIB_IB_QDR : (ibcs &
1901                           SYM_MASK(IBCStatusA_0, LinkSpeedActive)) ?
1902                                    QIB_IB_DDR : QIB_IB_SDR;
1903
1904                 if ((ppd->lflags & QIBL_IB_LINK_DISABLED) && ltstate !=
1905                     IB_PHYSPORTSTATE_DISABLED)
1906                         qib_set_ib_7322_lstate(ppd, 0,
1907                                QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
1908                 else
1909                         /*
1910                          * Since going into a recovery state causes the link
1911                          * state to go down and since recovery is transitory,
1912                          * it is better if we "miss" ever seeing the link
1913                          * training state go into recovery (i.e., ignore this
1914                          * transition for link state special handling purposes)
1915                          * without updating lastibcstat.
1916                          */
1917                         if (ltstate != IB_PHYSPORTSTATE_LINK_ERR_RECOVER &&
1918                             ltstate != IB_PHYSPORTSTATE_RECOVERY_RETRAIN &&
1919                             ltstate != IB_PHYSPORTSTATE_RECOVERY_WAITRMT &&
1920                             ltstate != IB_PHYSPORTSTATE_RECOVERY_IDLE)
1921                                 qib_handle_e_ibstatuschanged(ppd, ibcs);
1922         }
1923         if (*msg && iserr)
1924                 qib_dev_porterr(dd, ppd->port, "%s error\n", msg);
1925
1926         if (ppd->state_wanted & ppd->lflags)
1927                 wake_up_interruptible(&ppd->state_wait);
1928 done:
1929         return;
1930 }
1931
1932 /* enable/disable chip from delivering interrupts */
1933 static void qib_7322_set_intr_state(struct qib_devdata *dd, u32 enable)
1934 {
1935         if (enable) {
1936                 if (dd->flags & QIB_BADINTR)
1937                         return;
1938                 qib_write_kreg(dd, kr_intmask, dd->cspec->int_enable_mask);
1939                 /* cause any pending enabled interrupts to be re-delivered */
1940                 qib_write_kreg(dd, kr_intclear, 0ULL);
1941                 if (dd->cspec->num_msix_entries) {
1942                         /* and same for MSIx */
1943                         u64 val = qib_read_kreg64(dd, kr_intgranted);
1944                         if (val)
1945                                 qib_write_kreg(dd, kr_intgranted, val);
1946                 }
1947         } else
1948                 qib_write_kreg(dd, kr_intmask, 0ULL);
1949 }
1950
1951 /*
1952  * Try to cleanup as much as possible for anything that might have gone
1953  * wrong while in freeze mode, such as pio buffers being written by user
1954  * processes (causing armlaunch), send errors due to going into freeze mode,
1955  * etc., and try to avoid causing extra interrupts while doing so.
1956  * Forcibly update the in-memory pioavail register copies after cleanup
1957  * because the chip won't do it while in freeze mode (the register values
1958  * themselves are kept correct).
1959  * Make sure that we don't lose any important interrupts by using the chip
1960  * feature that says that writing 0 to a bit in *clear that is set in
1961  * *status will cause an interrupt to be generated again (if allowed by
1962  * the *mask value).
1963  * This is in chip-specific code because of all of the register accesses,
1964  * even though the details are similar on most chips.
1965  */
1966 static void qib_7322_clear_freeze(struct qib_devdata *dd)
1967 {
1968         int pidx;
1969
1970         /* disable error interrupts, to avoid confusion */
1971         qib_write_kreg(dd, kr_errmask, 0ULL);
1972
1973         for (pidx = 0; pidx < dd->num_pports; ++pidx)
1974                 if (dd->pport[pidx].link_speed_supported)
1975                         qib_write_kreg_port(dd->pport + pidx, krp_errmask,
1976                                             0ULL);
1977
1978         /* also disable interrupts; errormask is sometimes overwriten */
1979         qib_7322_set_intr_state(dd, 0);
1980
1981         /* clear the freeze, and be sure chip saw it */
1982         qib_write_kreg(dd, kr_control, dd->control);
1983         qib_read_kreg32(dd, kr_scratch);
1984
1985         /*
1986          * Force new interrupt if any hwerr, error or interrupt bits are
1987          * still set, and clear "safe" send packet errors related to freeze
1988          * and cancelling sends.  Re-enable error interrupts before possible
1989          * force of re-interrupt on pending interrupts.
1990          */
1991         qib_write_kreg(dd, kr_hwerrclear, 0ULL);
1992         qib_write_kreg(dd, kr_errclear, E_SPKT_ERRS_IGNORE);
1993         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
1994         /* We need to purge per-port errs and reset mask, too */
1995         for (pidx = 0; pidx < dd->num_pports; ++pidx) {
1996                 if (!dd->pport[pidx].link_speed_supported)
1997                         continue;
1998                 qib_write_kreg_port(dd->pport + pidx, krp_errclear, ~0Ull);
1999                 qib_write_kreg_port(dd->pport + pidx, krp_errmask, ~0Ull);
2000         }
2001         qib_7322_set_intr_state(dd, 1);
2002 }
2003
2004 /* no error handling to speak of */
2005 /**
2006  * qib_7322_handle_hwerrors - display hardware errors.
2007  * @dd: the qlogic_ib device
2008  * @msg: the output buffer
2009  * @msgl: the size of the output buffer
2010  *
2011  * Use same msg buffer as regular errors to avoid excessive stack
2012  * use.  Most hardware errors are catastrophic, but for right now,
2013  * we'll print them and continue.  We reuse the same message buffer as
2014  * qib_handle_errors() to avoid excessive stack usage.
2015  */
2016 static void qib_7322_handle_hwerrors(struct qib_devdata *dd, char *msg,
2017                                      size_t msgl)
2018 {
2019         u64 hwerrs;
2020         u32 ctrl;
2021         int isfatal = 0;
2022
2023         hwerrs = qib_read_kreg64(dd, kr_hwerrstatus);
2024         if (!hwerrs)
2025                 goto bail;
2026         if (hwerrs == ~0ULL) {
2027                 qib_dev_err(dd, "Read of hardware error status failed "
2028                             "(all bits set); ignoring\n");
2029                 goto bail;
2030         }
2031         qib_stats.sps_hwerrs++;
2032
2033         /* Always clear the error status register, except BIST fail */
2034         qib_write_kreg(dd, kr_hwerrclear, hwerrs &
2035                        ~HWE_MASK(PowerOnBISTFailed));
2036
2037         hwerrs &= dd->cspec->hwerrmask;
2038
2039         /* no EEPROM logging, yet */
2040
2041         if (hwerrs)
2042                 qib_devinfo(dd->pcidev, "Hardware error: hwerr=0x%llx "
2043                             "(cleared)\n", (unsigned long long) hwerrs);
2044
2045         ctrl = qib_read_kreg32(dd, kr_control);
2046         if ((ctrl & SYM_MASK(Control, FreezeMode)) && !dd->diag_client) {
2047                 /*
2048                  * No recovery yet...
2049                  */
2050                 if ((hwerrs & ~HWE_MASK(LATriggered)) ||
2051                     dd->cspec->stay_in_freeze) {
2052                         /*
2053                          * If any set that we aren't ignoring only make the
2054                          * complaint once, in case it's stuck or recurring,
2055                          * and we get here multiple times
2056                          * Force link down, so switch knows, and
2057                          * LEDs are turned off.
2058                          */
2059                         if (dd->flags & QIB_INITTED)
2060                                 isfatal = 1;
2061                 } else
2062                         qib_7322_clear_freeze(dd);
2063         }
2064
2065         if (hwerrs & HWE_MASK(PowerOnBISTFailed)) {
2066                 isfatal = 1;
2067                 strlcpy(msg, "[Memory BIST test failed, "
2068                         "InfiniPath hardware unusable]", msgl);
2069                 /* ignore from now on, so disable until driver reloaded */
2070                 dd->cspec->hwerrmask &= ~HWE_MASK(PowerOnBISTFailed);
2071                 qib_write_kreg(dd, kr_hwerrmask, dd->cspec->hwerrmask);
2072         }
2073
2074         err_decode(msg, msgl, hwerrs, qib_7322_hwerror_msgs);
2075
2076         /* Ignore esoteric PLL failures et al. */
2077
2078         qib_dev_err(dd, "%s hardware error\n", msg);
2079
2080         if (isfatal && !dd->diag_client) {
2081                 qib_dev_err(dd, "Fatal Hardware Error, no longer"
2082                             " usable, SN %.16s\n", dd->serial);
2083                 /*
2084                  * for /sys status file and user programs to print; if no
2085                  * trailing brace is copied, we'll know it was truncated.
2086                  */
2087                 if (dd->freezemsg)
2088                         snprintf(dd->freezemsg, dd->freezelen,
2089                                  "{%s}", msg);
2090                 qib_disable_after_error(dd);
2091         }
2092 bail:;
2093 }
2094
2095 /**
2096  * qib_7322_init_hwerrors - enable hardware errors
2097  * @dd: the qlogic_ib device
2098  *
2099  * now that we have finished initializing everything that might reasonably
2100  * cause a hardware error, and cleared those errors bits as they occur,
2101  * we can enable hardware errors in the mask (potentially enabling
2102  * freeze mode), and enable hardware errors as errors (along with
2103  * everything else) in errormask
2104  */
2105 static void qib_7322_init_hwerrors(struct qib_devdata *dd)
2106 {
2107         int pidx;
2108         u64 extsval;
2109
2110         extsval = qib_read_kreg64(dd, kr_extstatus);
2111         if (!(extsval & (QIB_EXTS_MEMBIST_DISABLED |
2112                          QIB_EXTS_MEMBIST_ENDTEST)))
2113                 qib_dev_err(dd, "MemBIST did not complete!\n");
2114
2115         /* never clear BIST failure, so reported on each driver load */
2116         qib_write_kreg(dd, kr_hwerrclear, ~HWE_MASK(PowerOnBISTFailed));
2117         qib_write_kreg(dd, kr_hwerrmask, dd->cspec->hwerrmask);
2118
2119         /* clear all */
2120         qib_write_kreg(dd, kr_errclear, ~0ULL);
2121         /* enable errors that are masked, at least this first time. */
2122         qib_write_kreg(dd, kr_errmask, ~0ULL);
2123         dd->cspec->errormask = qib_read_kreg64(dd, kr_errmask);
2124         for (pidx = 0; pidx < dd->num_pports; ++pidx)
2125                 if (dd->pport[pidx].link_speed_supported)
2126                         qib_write_kreg_port(dd->pport + pidx, krp_errmask,
2127                                             ~0ULL);
2128 }
2129
2130 /*
2131  * Disable and enable the armlaunch error.  Used for PIO bandwidth testing
2132  * on chips that are count-based, rather than trigger-based.  There is no
2133  * reference counting, but that's also fine, given the intended use.
2134  * Only chip-specific because it's all register accesses
2135  */
2136 static void qib_set_7322_armlaunch(struct qib_devdata *dd, u32 enable)
2137 {
2138         if (enable) {
2139                 qib_write_kreg(dd, kr_errclear, QIB_E_SPIOARMLAUNCH);
2140                 dd->cspec->errormask |= QIB_E_SPIOARMLAUNCH;
2141         } else
2142                 dd->cspec->errormask &= ~QIB_E_SPIOARMLAUNCH;
2143         qib_write_kreg(dd, kr_errmask, dd->cspec->errormask);
2144 }
2145
2146 /*
2147  * Formerly took parameter <which> in pre-shifted,
2148  * pre-merged form with LinkCmd and LinkInitCmd
2149  * together, and assuming the zero was NOP.
2150  */
2151 static void qib_set_ib_7322_lstate(struct qib_pportdata *ppd, u16 linkcmd,
2152                                    u16 linitcmd)
2153 {
2154         u64 mod_wd;
2155         struct qib_devdata *dd = ppd->dd;
2156         unsigned long flags;
2157
2158         if (linitcmd == QLOGIC_IB_IBCC_LINKINITCMD_DISABLE) {
2159                 /*
2160                  * If we are told to disable, note that so link-recovery
2161                  * code does not attempt to bring us back up.
2162                  * Also reset everything that we can, so we start
2163                  * completely clean when re-enabled (before we
2164                  * actually issue the disable to the IBC)
2165                  */
2166                 qib_7322_mini_pcs_reset(ppd);
2167                 spin_lock_irqsave(&ppd->lflags_lock, flags);
2168                 ppd->lflags |= QIBL_IB_LINK_DISABLED;
2169                 spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2170         } else if (linitcmd || linkcmd == QLOGIC_IB_IBCC_LINKCMD_DOWN) {
2171                 /*
2172                  * Any other linkinitcmd will lead to LINKDOWN and then
2173                  * to INIT (if all is well), so clear flag to let
2174                  * link-recovery code attempt to bring us back up.
2175                  */
2176                 spin_lock_irqsave(&ppd->lflags_lock, flags);
2177                 ppd->lflags &= ~QIBL_IB_LINK_DISABLED;
2178                 spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2179                 /*
2180                  * Clear status change interrupt reduction so the
2181                  * new state is seen.
2182                  */
2183                 ppd->cpspec->ibcctrl_a &=
2184                         ~SYM_MASK(IBCCtrlA_0, IBStatIntReductionEn);
2185         }
2186
2187         mod_wd = (linkcmd << IBA7322_IBCC_LINKCMD_SHIFT) |
2188                 (linitcmd << QLOGIC_IB_IBCC_LINKINITCMD_SHIFT);
2189
2190         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a |
2191                             mod_wd);
2192         /* write to chip to prevent back-to-back writes of ibc reg */
2193         qib_write_kreg(dd, kr_scratch, 0);
2194
2195 }
2196
2197 /*
2198  * The total RCV buffer memory is 64KB, used for both ports, and is
2199  * in units of 64 bytes (same as IB flow control credit unit).
2200  * The consumedVL unit in the same registers are in 32 byte units!
2201  * So, a VL15 packet needs 4.50 IB credits, and 9 rx buffer chunks,
2202  * and we can therefore allocate just 9 IB credits for 2 VL15 packets
2203  * in krp_rxcreditvl15, rather than 10.
2204  */
2205 #define RCV_BUF_UNITSZ 64
2206 #define NUM_RCV_BUF_UNITS(dd) ((64 * 1024) / (RCV_BUF_UNITSZ * dd->num_pports))
2207
2208 static void set_vls(struct qib_pportdata *ppd)
2209 {
2210         int i, numvls, totcred, cred_vl, vl0extra;
2211         struct qib_devdata *dd = ppd->dd;
2212         u64 val;
2213
2214         numvls = qib_num_vls(ppd->vls_operational);
2215
2216         /*
2217          * Set up per-VL credits. Below is kluge based on these assumptions:
2218          * 1) port is disabled at the time early_init is called.
2219          * 2) give VL15 17 credits, for two max-plausible packets.
2220          * 3) Give VL0-N the rest, with any rounding excess used for VL0
2221          */
2222         /* 2 VL15 packets @ 288 bytes each (including IB headers) */
2223         totcred = NUM_RCV_BUF_UNITS(dd);
2224         cred_vl = (2 * 288 + RCV_BUF_UNITSZ - 1) / RCV_BUF_UNITSZ;
2225         totcred -= cred_vl;
2226         qib_write_kreg_port(ppd, krp_rxcreditvl15, (u64) cred_vl);
2227         cred_vl = totcred / numvls;
2228         vl0extra = totcred - cred_vl * numvls;
2229         qib_write_kreg_port(ppd, krp_rxcreditvl0, cred_vl + vl0extra);
2230         for (i = 1; i < numvls; i++)
2231                 qib_write_kreg_port(ppd, krp_rxcreditvl0 + i, cred_vl);
2232         for (; i < 8; i++) /* no buffer space for other VLs */
2233                 qib_write_kreg_port(ppd, krp_rxcreditvl0 + i, 0);
2234
2235         /* Notify IBC that credits need to be recalculated */
2236         val = qib_read_kreg_port(ppd, krp_ibsdtestiftx);
2237         val |= SYM_MASK(IB_SDTEST_IF_TX_0, CREDIT_CHANGE);
2238         qib_write_kreg_port(ppd, krp_ibsdtestiftx, val);
2239         qib_write_kreg(dd, kr_scratch, 0ULL);
2240         val &= ~SYM_MASK(IB_SDTEST_IF_TX_0, CREDIT_CHANGE);
2241         qib_write_kreg_port(ppd, krp_ibsdtestiftx, val);
2242
2243         for (i = 0; i < numvls; i++)
2244                 val = qib_read_kreg_port(ppd, krp_rxcreditvl0 + i);
2245         val = qib_read_kreg_port(ppd, krp_rxcreditvl15);
2246
2247         /* Change the number of operational VLs */
2248         ppd->cpspec->ibcctrl_a = (ppd->cpspec->ibcctrl_a &
2249                                 ~SYM_MASK(IBCCtrlA_0, NumVLane)) |
2250                 ((u64)(numvls - 1) << SYM_LSB(IBCCtrlA_0, NumVLane));
2251         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a);
2252         qib_write_kreg(dd, kr_scratch, 0ULL);
2253 }
2254
2255 /*
2256  * The code that deals with actual SerDes is in serdes_7322_init().
2257  * Compared to the code for iba7220, it is minimal.
2258  */
2259 static int serdes_7322_init(struct qib_pportdata *ppd);
2260
2261 /**
2262  * qib_7322_bringup_serdes - bring up the serdes
2263  * @ppd: physical port on the qlogic_ib device
2264  */
2265 static int qib_7322_bringup_serdes(struct qib_pportdata *ppd)
2266 {
2267         struct qib_devdata *dd = ppd->dd;
2268         u64 val, guid, ibc;
2269         unsigned long flags;
2270         int ret = 0;
2271
2272         /*
2273          * SerDes model not in Pd, but still need to
2274          * set up much of IBCCtrl and IBCDDRCtrl; move elsewhere
2275          * eventually.
2276          */
2277         /* Put IBC in reset, sends disabled (should be in reset already) */
2278         ppd->cpspec->ibcctrl_a &= ~SYM_MASK(IBCCtrlA_0, IBLinkEn);
2279         qib_write_kreg_port(ppd, krp_ibcctrl_a, ppd->cpspec->ibcctrl_a);
2280         qib_write_kreg(dd, kr_scratch, 0ULL);
2281
2282         /* ensure previous Tx parameters are not still forced */
2283         qib_write_kreg_port(ppd, krp_tx_deemph_override,
2284                 SYM_MASK(IBSD_TX_DEEMPHASIS_OVERRIDE_0,
2285                 reset_tx_deemphasis_override));
2286
2287         if (qib_compat_ddr_negotiate) {
2288                 ppd->cpspec->ibdeltainprog = 1;
2289                 ppd->cpspec->ibsymsnap = read_7322_creg32_port(ppd,
2290                                                 crp_ibsymbolerr);
2291                 ppd->cpspec->iblnkerrsnap = read_7322_creg32_port(ppd,
2292                                                 crp_iblinkerrrecov);
2293         }
2294
2295         /* flowcontrolwatermark is in units of KBytes */
2296         ibc = 0x5ULL << SYM_LSB(IBCCtrlA_0, FlowCtrlWaterMark);
2297         /*
2298          * Flow control is sent this often, even if no changes in
2299          * buffer space occur.  Units are 128ns for this chip.
2300          * Set to 3usec.
2301          */
2302         ibc |= 24ULL << SYM_LSB(IBCCtrlA_0, FlowCtrlPeriod);
2303         /* max error tolerance */
2304         ibc |= 0xfULL << SYM_LSB(IBCCtrlA_0, PhyerrThreshold);
2305         /* IB credit flow control. */
2306         ibc |= 0xfULL << SYM_LSB(IBCCtrlA_0, OverrunThreshold);
2307         /*
2308          * set initial max size pkt IBC will send, including ICRC; it's the
2309          * PIO buffer size in dwords, less 1; also see qib_set_mtu()
2310          */
2311         ibc |= ((u64)(ppd->ibmaxlen >> 2) + 1) <<
2312                 SYM_LSB(IBCCtrlA_0, MaxPktLen);
2313         ppd->cpspec->ibcctrl_a = ibc; /* without linkcmd or linkinitcmd! */
2314
2315         /*
2316          * Reset the PCS interface to the serdes (and also ibc, which is still
2317          * in reset from above).  Writes new value of ibcctrl_a as last step.
2318          */
2319         qib_7322_mini_pcs_reset(ppd);
2320
2321         if (!ppd->cpspec->ibcctrl_b) {
2322                 unsigned lse = ppd->link_speed_enabled;
2323
2324                 /*
2325                  * Not on re-init after reset, establish shadow
2326                  * and force initial config.
2327                  */
2328                 ppd->cpspec->ibcctrl_b = qib_read_kreg_port(ppd,
2329                                                              krp_ibcctrl_b);
2330                 ppd->cpspec->ibcctrl_b &= ~(IBA7322_IBC_SPEED_QDR |
2331                                 IBA7322_IBC_SPEED_DDR |
2332                                 IBA7322_IBC_SPEED_SDR |
2333                                 IBA7322_IBC_WIDTH_AUTONEG |
2334                                 SYM_MASK(IBCCtrlB_0, IB_LANE_REV_SUPPORTED));
2335                 if (lse & (lse - 1)) /* Muliple speeds enabled */
2336                         ppd->cpspec->ibcctrl_b |=
2337                                 (lse << IBA7322_IBC_SPEED_LSB) |
2338                                 IBA7322_IBC_IBTA_1_2_MASK |
2339                                 IBA7322_IBC_MAX_SPEED_MASK;
2340                 else
2341                         ppd->cpspec->ibcctrl_b |= (lse == QIB_IB_QDR) ?
2342                                 IBA7322_IBC_SPEED_QDR |
2343                                  IBA7322_IBC_IBTA_1_2_MASK :
2344                                 (lse == QIB_IB_DDR) ?
2345                                         IBA7322_IBC_SPEED_DDR :
2346                                         IBA7322_IBC_SPEED_SDR;
2347                 if ((ppd->link_width_enabled & (IB_WIDTH_1X | IB_WIDTH_4X)) ==
2348                     (IB_WIDTH_1X | IB_WIDTH_4X))
2349                         ppd->cpspec->ibcctrl_b |= IBA7322_IBC_WIDTH_AUTONEG;
2350                 else
2351                         ppd->cpspec->ibcctrl_b |=
2352                                 ppd->link_width_enabled == IB_WIDTH_4X ?
2353                                 IBA7322_IBC_WIDTH_4X_ONLY :
2354                                 IBA7322_IBC_WIDTH_1X_ONLY;
2355
2356                 /* always enable these on driver reload, not sticky */
2357                 ppd->cpspec->ibcctrl_b |= (IBA7322_IBC_RXPOL_MASK |
2358                         IBA7322_IBC_HRTBT_MASK);
2359         }
2360         qib_write_kreg_port(ppd, krp_ibcctrl_b, ppd->cpspec->ibcctrl_b);
2361
2362         /* setup so we have more time at CFGTEST to change H1 */
2363         val = qib_read_kreg_port(ppd, krp_ibcctrl_c);
2364         val &= ~SYM_MASK(IBCCtrlC_0, IB_FRONT_PORCH);
2365         val |= 0xfULL << SYM_LSB(IBCCtrlC_0, IB_FRONT_PORCH);
2366         qib_write_kreg_port(ppd, krp_ibcctrl_c, val);
2367
2368         serdes_7322_init(ppd);
2369
2370         guid = be64_to_cpu(ppd->guid);
2371         if (!guid) {
2372                 if (dd->base_guid)
2373                         guid = be64_to_cpu(dd->base_guid) + ppd->port - 1;
2374                 ppd->guid = cpu_to_be64(guid);
2375         }
2376
2377         qib_write_kreg_port(ppd, krp_hrtbt_guid, guid);
2378         /* write to chip to prevent back-to-back writes of ibc reg */
2379         qib_write_kreg(dd, kr_scratch, 0);
2380
2381         /* Enable port */
2382         ppd->cpspec->ibcctrl_a |= SYM_MASK(IBCCtrlA_0, IBLinkEn);
2383         set_vls(ppd);
2384
2385         /* initially come up DISABLED, without sending anything. */
2386         val = ppd->cpspec->ibcctrl_a | (QLOGIC_IB_IBCC_LINKINITCMD_DISABLE <<
2387                                         QLOGIC_IB_IBCC_LINKINITCMD_SHIFT);
2388         qib_write_kreg_port(ppd, krp_ibcctrl_a, val);
2389         qib_write_kreg(dd, kr_scratch, 0ULL);
2390         /* clear the linkinit cmds */
2391         ppd->cpspec->ibcctrl_a = val & ~SYM_MASK(IBCCtrlA_0, LinkInitCmd);
2392
2393         /* be paranoid against later code motion, etc. */
2394         spin_lock_irqsave(&dd->cspec->rcvmod_lock, flags);
2395         ppd->p_rcvctrl |= SYM_MASK(RcvCtrl_0, RcvIBPortEnable);
2396         qib_write_kreg_port(ppd, krp_rcvctrl, ppd->p_rcvctrl);
2397         spin_unlock_irqrestore(&dd->cspec->rcvmod_lock, flags);
2398
2399         /* Also enable IBSTATUSCHG interrupt.  */
2400         val = qib_read_kreg_port(ppd, krp_errmask);
2401         qib_write_kreg_port(ppd, krp_errmask,
2402                 val | ERR_MASK_N(IBStatusChanged));
2403
2404         /* Always zero until we start messing with SerDes for real */
2405         return ret;
2406 }
2407
2408 /**
2409  * qib_7322_quiet_serdes - set serdes to txidle
2410  * @dd: the qlogic_ib device
2411  * Called when driver is being unloaded
2412  */
2413 static void qib_7322_mini_quiet_serdes(struct qib_pportdata *ppd)
2414 {
2415         u64 val;
2416         unsigned long flags;
2417
2418         qib_set_ib_7322_lstate(ppd, 0, QLOGIC_IB_IBCC_LINKINITCMD_DISABLE);
2419
2420         spin_lock_irqsave(&ppd->lflags_lock, flags);
2421         ppd->lflags &= ~QIBL_IB_AUTONEG_INPROG;
2422         spin_unlock_irqrestore(&ppd->lflags_lock, flags);
2423         wake_up(&ppd->cpspec->autoneg_wait);
2424         cancel_delayed_work_sync(&ppd->cpspec->autoneg_work);
2425         if (ppd->dd->cspec->r1)
2426                 cancel_delayed_work_sync(&ppd->cpspec->ipg_work);
2427
2428         ppd->cpspec->chase_end = 0;
2429         if (ppd->cpspec->chase_timer.data) /* if initted */
2430                 del_timer_sync(&ppd->cpspec->chase_timer);
2431
2432         /*
2433          * Despite the name, actually disables IBC as well. Do it when
2434          * we are as sure as possible that no more packets can be
2435          * received, following the down and the PCS reset.
2436          * The actual disabling happens in qib_7322_mini_pci_reset(),
2437          * along with the PCS being reset.
2438          */
2439         ppd->cpspec->ibcctrl_a &= ~SYM_MASK(IBCCtrlA_0, IBLinkEn);
2440         qib_7322_mini_pcs_reset(ppd);
2441
2442         /*
2443          * Update the adjusted counters so the adjustment persists
2444          * across driver reload.
2445          */
2446         if (ppd->cpspec->ibsymdelta || ppd->cpspec->iblnkerrdelta ||
2447             ppd->cpspec->ibdeltainprog || ppd->cpspec->iblnkdowndelta) {
2448                 struct qib_devdata *dd = ppd->dd;
2449                 u64 diagc;
2450
2451                 /* enable counter writes */
2452                 diagc = qib_read_kreg64(dd, kr_hwdiagctrl);
2453                 qib_write_kreg(dd, kr_hwdiagctrl,
2454                                diagc | SYM_MASK(HwDiagCtrl, CounterWrEnable));
2455
2456                 if (ppd->cpspec->ibsymdelta || ppd->cpspec->ibdeltainprog) {
2457                         val = read_7322_creg32_port(ppd, crp_ibsymbolerr);
2458                         if (ppd->cpspec->ibdeltainprog)
2459                                 val -= val - ppd->cpspec->ibsymsnap;
2460                         val -= ppd->cpspec->ibsymdelta;
2461                         write_7322_creg_port(ppd, crp_ibsymbolerr, val);
2462                 }
2463                 if (ppd->cpspec->iblnkerrdelta || ppd->cpspec->ibdeltainprog) {
2464                         val = read_7322_creg32_port(ppd, crp_iblinkerrrecov);
2465                         if (ppd->cpspec->ibdeltainprog)
2466                                 val -= val - ppd->cpspec->iblnkerrsnap;
2467                         val -= ppd->cpspec->iblnkerrdelta;
2468                         write_7322_creg_port(ppd, crp_iblinkerrrecov, val);
2469                 }
2470                 if (ppd->cpspec->iblnkdowndelta) {
2471                         val = read_7322_creg32_port(ppd, crp_iblinkdown);
2472                         val += ppd->cpspec->iblnkdowndelta;
2473                         write_7322_creg_port(ppd, crp_iblinkdown, val);
2474                 }
2475                 /*
2476                  * No need to save ibmalfdelta since IB perfcounters
2477                  * are cleared on driver reload.
2478                  */
2479
2480                 /* and disable counter writes */
2481                 qib_write_kreg(dd, kr_hwdiagctrl, diagc);
2482         }
2483 }
2484
2485 /**
2486  * qib_setup_7322_setextled - set the state of the two external LEDs
2487  * @ppd: physical port on the qlogic_ib device
2488  * @on: whether the link is up or not
2489  *
2490  * The exact combo of LEDs if on is true is determined by looking
2491  * at the ibcstatus.
2492  *
2493  * These LEDs indicate the physical and logical state of IB link.
2494  * For this chip (at least with recommended board pinouts), LED1
2495  * is Yellow (logical state) and LED2 is Green (physical state),
2496  *
2497  * Note:  We try to match the Mellanox HCA LED behavior as best
2498  * we can.  Green indicates physical link state is OK (something is
2499  * plugged in, and we can train).
2500  * Amber indicates the link is logically up (ACTIVE).
2501  * Mellanox further blinks the amber LED to indicate data packet
2502  * activity, but we have no hardware support for that, so it would
2503  * require waking up every 10-20 msecs and checking the counters
2504  * on the chip, and then turning the LED off if appropriate.  That's
2505  * visible overhead, so not something we will do.
2506  */
2507 static void qib_setup_7322_setextled(struct qib_pportdata *ppd, u32 on)
2508 {
2509         struct qib_devdata *dd = ppd->dd;
2510         u64 extctl, ledblink = 0, val;
2511         unsigned long flags;
2512         int yel, grn;
2513
2514         /*
2515          * The diags use the LED to indicate diag info, so we leave
2516          * the external LED alone when the diags are running.
2517          */
2518         if (dd->diag_client)
2519                 return;
2520
2521         /* Allow override of LED display for, e.g. Locating system in rack */
2522         if (ppd->led_override) {
2523                 grn = (ppd->led_override & QIB_LED_PHYS);
2524                 yel = (ppd->led_override & QIB_LED_LOG);
2525         } else if (on) {
2526                 val = qib_read_kreg_port(ppd, krp_ibcstatus_a);
2527                 grn = qib_7322_phys_portstate(val) ==
2528                         IB_PHYSPORTSTATE_LINKUP;
2529                 yel = qib_7322_iblink_state(val) == IB_PORT_ACTIVE;
2530         } else {
2531                 grn = 0;
2532                 yel = 0;
2533         }
2534
2535         spin_lock_irqsave(&dd->cspec->gpio_lock, flags);
2536         extctl = dd->cspec->extctrl & (ppd->port == 1 ?
2537                 ~ExtLED_IB1_MASK : ~ExtLED_IB2_MASK);
2538         if (grn) {
2539                 extctl |= ppd->port == 1 ? ExtLED_IB1_GRN : ExtLED_IB2_GRN;
2540                 /*
2541                  * Counts are in chip clock (4ns) periods.
2542                  * This is 1/16 sec (66.6ms) on,
2543                  * 3/16 sec (187.5 ms) off, with packets rcvd.
2544                  */
2545                 ledblink = ((66600 * 1000UL / 4) << IBA7322_LEDBLINK_ON_SHIFT) |
2546                         ((187500 * 1000UL / 4) << IBA7322_LEDBLINK_OFF_SHIFT);
2547         }
2548         if (yel)
2549                 extctl |= ppd->port == 1 ? ExtLED_IB1_YEL : ExtLED_IB2_YEL;
2550         dd->cspec->extctrl = extctl;
2551         qib_write_kreg(dd, kr_extctrl, dd->cspec->extctrl);
2552         spin_unlock_irqrestore(&dd->cspec->gpio_lock, flags);
2553
2554         if (ledblink) /* blink the LED on packet receive */
2555                 qib_write_kreg_port(ppd, krp_rcvpktledcnt, ledblink);
2556 }
2557
2558 /*
2559  * Disable MSIx interrupt if enabled, call generic MSIx code
2560  * to cleanup, and clear pending MSIx interrupts.
2561  * Used for fallback to INTx, after reset, and when MSIx setup fails.
2562  */
2563 static void qib_7322_nomsix(struct qib_devdata *dd)
2564 {
2565         u64 intgranted;
2566         int n;
2567
2568         dd->cspec->main_int_mask = ~0ULL;
2569         n = dd->cspec->num_msix_entries;
2570         if (n) {
2571                 int i;
2572
2573                 dd->cspec->num_msix_entries = 0;
2574                 for (i = 0; i < n; i++)
2575                         free_irq(dd->cspec->msix_entries[i].vector,
2576                                  dd->cspec->msix_arg[i]);
2577                 qib_nomsix(dd);
2578         }
2579         /* make sure no MSIx interrupts are left pending */
2580         intgranted = qib_read_kreg64(dd, kr_intgranted);
2581         if (intgranted)
2582                 qib_write_kreg(dd, kr_intgranted, intgranted);
2583 }
2584
2585 static void qib_7322_free_irq(struct qib_devdata *dd)
2586 {
2587         if (dd->cspec->irq) {
2588                 free_irq(dd->cspec->irq, dd);
2589                 dd->cspec->irq = 0;
2590         }
2591         qib_7322_nomsix(dd);
2592 }
2593
2594 static void qib_setup_7322_cleanup(struct qib_devdata *dd)
2595 {
2596         int i;
2597
2598         qib_7322_free_irq(dd);
2599         kfree(dd->cspec->cntrs);
2600         kfree(dd->cspec->sendchkenable);
2601         kfree(dd->cspec->sendgrhchk);
2602         kfree(dd->cspec->sendibchk);
2603         kfree(dd->cspec->msix_entries);
2604         kfree(dd->cspec->msix_arg);
2605         for (i = 0; i < dd->num_pports; i++) {
2606                 unsigned long flags;
2607                 u32 mask = QSFP_GPIO_MOD_PRS_N |
2608                         (QSFP_GPIO_MOD_PRS_N << QSFP_GPIO_PORT2_SHIFT);
2609
2610                 kfree(dd->pport[i].cpspec->portcntrs);
2611                 if (dd->flags & QIB_HAS_QSFP) {
2612                         spin_lock_irqsave(&dd->cspec->gpio_lock, flags);
2613                         dd->cspec->gpio_mask &= ~mask;
2614                         qib_write_kreg(dd, kr_gpio_mask, dd->cspec->gpio_mask);
2615                         spin_unlock_irqrestore(&dd->cspec->gpio_lock, flags);
2616                         qib_qsfp_deinit(&dd->pport[i].cpspec->qsfp_data);
2617                 }
2618                 if (dd->pport[i].ibport_data.smi_ah)
2619                         ib_destroy_ah(&dd->pport[i].ibport_data.smi_ah->ibah);
2620         }
2621 }
2622
2623 /* handle SDMA interrupts */
2624 static void sdma_7322_intr(struct qib_devdata *dd, u64 istat)
2625 {
2626         struct qib_pportdata *ppd0 = &dd->pport[0];
2627         struct qib_pportdata *ppd1 = &dd->pport[1];
2628         u64 intr0 = istat & (INT_MASK_P(SDma, 0) |
2629                 INT_MASK_P(SDmaIdle, 0) | INT_MASK_P(SDmaProgress, 0));
2630         u64 intr1 = istat & (INT_MASK_P(SDma, 1) |
2631                 INT_MASK_P(SDmaIdle, 1) | INT_MASK_P(SDmaProgress, 1));
2632
2633         if (intr0)
2634                 qib_sdma_intr(ppd0);
2635         if (intr1)
2636                 qib_sdma_intr(ppd1);
2637
2638         if (istat & INT_MASK_PM(SDmaCleanupDone, 0))
2639                 qib_sdma_process_event(ppd0, qib_sdma_event_e20_hw_started);
2640         if (istat & INT_MASK_PM(SDmaCleanupDone, 1))
2641                 qib_sdma_process_event(ppd1, qib_sdma_event_e20_hw_started);
2642 }
2643
2644 /*
2645  * Set or clear the Send buffer available interrupt enable bit.
2646  */
2647 static void qib_wantpiobuf_7322_intr(struct qib_devdata *dd, u32 needint)
2648 {
2649         unsigned long flags;
2650
2651         spin_lock_irqsave(&dd->sendctrl_lock, flags);
2652         if (needint)
2653                 dd->sendctrl |= SYM_MASK(SendCtrl, SendIntBufAvail);
2654         else
2655                 dd->sendctrl &= ~SYM_MASK(SendCtrl, SendIntBufAvail);
2656         qib_write_kreg(dd, kr_sendctrl, dd->sendctrl);
2657         qib_write_kreg(dd, kr_scratch, 0ULL);
2658         spin_unlock_irqrestore(&dd->sendctrl_lock, flags);
2659 }
2660
2661 /*
2662  * Somehow got an interrupt with reserved bits set in interrupt status.
2663  * Print a message so we know it happened, then clear them.
2664  * keep mainline interrupt handler cache-friendly
2665  */
2666 static noinline void unknown_7322_ibits(struct qib_devdata *dd, u64 istat)
2667 {
2668         u64 kills;
2669         char msg[128];
2670
2671         kills = istat & ~QIB_I_BITSEXTANT;
2672         qib_dev_err(dd, "Clearing reserved interrupt(s) 0x%016llx:"
2673                     " %s\n", (unsigned long long) kills, msg);
2674         qib_write_kreg(dd, kr_intmask, (dd->cspec->int_enable_mask & ~kills));
2675 }
2676
2677 /* keep mainline interrupt handler cache-friendly */
2678 static noinline void unknown_7322_gpio_intr(struct qib_devdata *dd)
2679 {
2680         u32 gpiostatus;
2681         int handled = 0;
2682         int pidx;
2683
2684         /*
2685          * Boards for this chip currently don't use GPIO interrupts,
2686          * so clear by writing GPIOstatus to GPIOclear, and complain
2687          * to developer.  To avoid endless repeats, clear
2688          * the bits in the mask, since there is some kind of
2689          * programming error or chip problem.
2690          */
2691         gpiostatus = qib_read_kreg32(dd, kr_gpio_status);
2692         /*
2693          * In theory, writing GPIOstatus to GPIOclear could
2694          * have a bad side-effect on some diagnostic that wanted
2695          * to poll for a status-change, but the various shadows
2696          * make that problematic at best. Diags will just suppress
2697          * all GPIO interrupts during such tests.
2698          */
2699         qib_write_kreg(dd, kr_gpio_clear, gpiostatus);
2700         /*
2701          * Check for QSFP MOD_PRS changes
2702          * only works for single port if IB1 != pidx1
2703          */
2704         for (pidx = 0; pidx < dd->num_pports && (dd->flags & QIB_HAS_QSFP);
2705              ++pidx) {
2706                 struct qib_pportdata *ppd;
2707                 struct qib_qsfp_data *qd;
2708                 u32 mask;
2709                 if (!dd->pport[pidx].link_speed_supported)
2710                         continue;
2711                 mask = QSFP_GPIO_MOD_PRS_N;
2712                 ppd = dd->pport + pidx;
2713                 mask <<= (QSFP_GPIO_PORT2_SHIFT * ppd->hw_pidx);
2714                 if (gpiostatus & dd->cspec->gpio_mask & mask) {
2715                         u64 pins;
2716                         qd = &ppd->cpspec->qsfp_data;
2717                         gpiostatus &= ~mask;
2718                         pins = qib_read_kreg64(dd, kr_extstatus);
2719                         pins >>= SYM_LSB(EXTStatus, GPIOIn);
2720                         if (!(pins & mask)) {
2721                                 ++handled;
2722                                 qd->t_insert = get_jiffies_64();
2723                                 queue_work(ib_wq, &qd->work);
2724                         }
2725                 }
2726         }
2727
2728         if (gpiostatus && !handled) {
2729                 const u32 mask = qib_read_kreg32(dd, kr_gpio_mask);
2730                 u32 gpio_irq = mask & gpiostatus;
2731
2732                 /*
2733                  * Clear any troublemakers, and update chip from shadow
2734                  */
2735                 dd->cspec->gpio_mask &= ~gpio_irq;
2736                 qib_write_kreg(dd, kr_gpio_mask, dd->cspec->gpio_mask);
2737         }
2738 }
2739
2740 /*
2741  * Handle errors and unusual events first, separate function
2742  * to improve cache hits for fast path interrupt handling.
2743  */
2744 static noinline void unlikely_7322_intr(struct qib_devdata *dd, u64 istat)
2745 {
2746         if (istat & ~QIB_I_BITSEXTANT)
2747                 unknown_7322_ibits(dd, istat);
2748         if (istat & QIB_I_GPIO)
2749                 unknown_7322_gpio_intr(dd);
2750         if (istat & QIB_I_C_ERROR) {
2751                 qib_write_kreg(dd, kr_errmask, 0ULL);
2752                 tasklet_schedule(&dd->error_tasklet);
2753         }
2754         if (istat & INT_MASK_P(Err, 0) && dd->rcd[0])
2755                 handle_7322_p_errors(dd->rcd[0]->ppd);
2756         if (istat & INT_MASK_P(Err, 1) && dd->rcd[1])
2757                 handle_7322_p_errors(dd->rcd[1]->ppd);
2758 }
2759
2760 /*
2761  * Dynamically adjust the rcv int timeout for a context based on incoming
2762  * packet rate.
2763  */
2764 static void adjust_rcv_timeout(struct qib_ctxtdata *rcd, int npkts)
2765 {
2766         struct qib_devdata *dd = rcd->dd;
2767         u32 timeout = dd->cspec->rcvavail_timeout[rcd->ctxt];
2768
2769         /*
2770          * Dynamically adjust idle timeout on chip
2771          * based on number of packets processed.
2772          */
2773         if (npkts < rcv_int_count && timeout > 2)
2774                 timeout >>= 1;
2775         else if (npkts >= rcv_int_count && timeout < rcv_int_timeout)
2776                 timeout = min(timeout << 1, rcv_int_timeout);
2777         else
2778                 return;
2779
2780         dd->cspec->rcvavail_timeout[rcd->ctxt] = timeout;
2781         qib_write_kreg(dd, kr_rcvavailtimeout + rcd->ctxt, timeout);
2782 }
2783
2784 /*
2785  * This is the main interrupt handler.
2786  * It will normally only be used for low frequency interrupts but may
2787  * have to handle all interrupts if INTx is enabled or fewer than normal
2788  * MSIx interrupts were allocated.
2789  * This routine should ignore the interrupt bits for any of the
2790  * dedicated MSIx handlers.
2791  */
2792 static irqreturn_t qib_7322intr(int irq, void *data)
2793 {
2794         struct qib_devdata *dd = data;
2795         irqreturn_t ret;
2796         u64 istat;
2797         u64 ctxtrbits;
2798         u64 rmask;
2799         unsigned i;
2800         u32 npkts;
2801
2802         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT) {
2803                 /*
2804                  * This return value is not great, but we do not want the
2805                  * interrupt core code to remove our interrupt handler
2806                  * because we don't appear to be handling an interrupt
2807                  * during a chip reset.
2808                  */
2809                 ret = IRQ_HANDLED;
2810                 goto bail;
2811         }
2812
2813         istat = qib_read_kreg64(dd, kr_intstatus);
2814
2815         if (unlikely(istat == ~0ULL)) {
2816                 qib_bad_intrstatus(dd);
2817                 qib_dev_err(dd, "Interrupt status all f's, skipping\n");
2818                 /* don't know if it was our interrupt or not */
2819                 ret = IRQ_NONE;
2820                 goto bail;
2821         }
2822
2823         istat &= dd->cspec->main_int_mask;
2824         if (unlikely(!istat)) {
2825                 /* already handled, or shared and not us */
2826                 ret = IRQ_NONE;
2827                 goto bail;
2828         }
2829
2830         qib_stats.sps_ints++;
2831         if (dd->int_counter != (u32) -1)
2832                 dd->int_counter++;
2833
2834         /* handle "errors" of various kinds first, device ahead of port */
2835         if (unlikely(istat & (~QIB_I_BITSEXTANT | QIB_I_GPIO |
2836                               QIB_I_C_ERROR | INT_MASK_P(Err, 0) |
2837                               INT_MASK_P(Err, 1))))
2838                 unlikely_7322_intr(dd, istat);
2839
2840         /*
2841          * Clear the interrupt bits we found set, relatively early, so we
2842          * "know" know the chip will have seen this by the time we process
2843          * the queue, and will re-interrupt if necessary.  The processor
2844          * itself won't take the interrupt again until we return.
2845          */
2846         qib_write_kreg(dd, kr_intclear, istat);
2847
2848         /*
2849          * Handle kernel receive queues before checking for pio buffers
2850          * available since receives can overflow; piobuf waiters can afford
2851          * a few extra cycles, since they were waiting anyway.
2852          */
2853         ctxtrbits = istat & (QIB_I_RCVAVAIL_MASK | QIB_I_RCVURG_MASK);
2854         if (ctxtrbits) {
2855                 rmask = (1ULL << QIB_I_RCVAVAIL_LSB) |
2856                         (1ULL << QIB_I_RCVURG_LSB);
2857                 for (i = 0; i < dd->first_user_ctxt; i++) {
2858                         if (ctxtrbits & rmask) {
2859                                 ctxtrbits &= ~rmask;
2860                                 if (dd->rcd[i])
2861                                         qib_kreceive(dd->rcd[i], NULL, &npkts);
2862                         }
2863                         rmask <<= 1;
2864                 }
2865                 if (ctxtrbits) {
2866                         ctxtrbits = (ctxtrbits >> QIB_I_RCVAVAIL_LSB) |
2867                                 (ctxtrbits >> QIB_I_RCVURG_LSB);
2868                         qib_handle_urcv(dd, ctxtrbits);
2869                 }
2870         }
2871
2872         if (istat & (QIB_I_P_SDMAINT(0) | QIB_I_P_SDMAINT(1)))
2873                 sdma_7322_intr(dd, istat);
2874
2875         if ((istat & QIB_I_SPIOBUFAVAIL) && (dd->flags & QIB_INITTED))
2876                 qib_ib_piobufavail(dd);
2877
2878         ret = IRQ_HANDLED;
2879 bail:
2880         return ret;
2881 }
2882
2883 /*
2884  * Dedicated receive packet available interrupt handler.
2885  */
2886 static irqreturn_t qib_7322pintr(int irq, void *data)
2887 {
2888         struct qib_ctxtdata *rcd = data;
2889         struct qib_devdata *dd = rcd->dd;
2890         u32 npkts;
2891
2892         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2893                 /*
2894                  * This return value is not great, but we do not want the
2895                  * interrupt core code to remove our interrupt handler
2896                  * because we don't appear to be handling an interrupt
2897                  * during a chip reset.
2898                  */
2899                 return IRQ_HANDLED;
2900
2901         qib_stats.sps_ints++;
2902         if (dd->int_counter != (u32) -1)
2903                 dd->int_counter++;
2904
2905         /* Clear the interrupt bit we expect to be set. */
2906         qib_write_kreg(dd, kr_intclear, ((1ULL << QIB_I_RCVAVAIL_LSB) |
2907                        (1ULL << QIB_I_RCVURG_LSB)) << rcd->ctxt);
2908
2909         qib_kreceive(rcd, NULL, &npkts);
2910
2911         return IRQ_HANDLED;
2912 }
2913
2914 /*
2915  * Dedicated Send buffer available interrupt handler.
2916  */
2917 static irqreturn_t qib_7322bufavail(int irq, void *data)
2918 {
2919         struct qib_devdata *dd = data;
2920
2921         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2922                 /*
2923                  * This return value is not great, but we do not want the
2924                  * interrupt core code to remove our interrupt handler
2925                  * because we don't appear to be handling an interrupt
2926                  * during a chip reset.
2927                  */
2928                 return IRQ_HANDLED;
2929
2930         qib_stats.sps_ints++;
2931         if (dd->int_counter != (u32) -1)
2932                 dd->int_counter++;
2933
2934         /* Clear the interrupt bit we expect to be set. */
2935         qib_write_kreg(dd, kr_intclear, QIB_I_SPIOBUFAVAIL);
2936
2937         /* qib_ib_piobufavail() will clear the want PIO interrupt if needed */
2938         if (dd->flags & QIB_INITTED)
2939                 qib_ib_piobufavail(dd);
2940         else
2941                 qib_wantpiobuf_7322_intr(dd, 0);
2942
2943         return IRQ_HANDLED;
2944 }
2945
2946 /*
2947  * Dedicated Send DMA interrupt handler.
2948  */
2949 static irqreturn_t sdma_intr(int irq, void *data)
2950 {
2951         struct qib_pportdata *ppd = data;
2952         struct qib_devdata *dd = ppd->dd;
2953
2954         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2955                 /*
2956                  * This return value is not great, but we do not want the
2957                  * interrupt core code to remove our interrupt handler
2958                  * because we don't appear to be handling an interrupt
2959                  * during a chip reset.
2960                  */
2961                 return IRQ_HANDLED;
2962
2963         qib_stats.sps_ints++;
2964         if (dd->int_counter != (u32) -1)
2965                 dd->int_counter++;
2966
2967         /* Clear the interrupt bit we expect to be set. */
2968         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
2969                        INT_MASK_P(SDma, 1) : INT_MASK_P(SDma, 0));
2970         qib_sdma_intr(ppd);
2971
2972         return IRQ_HANDLED;
2973 }
2974
2975 /*
2976  * Dedicated Send DMA idle interrupt handler.
2977  */
2978 static irqreturn_t sdma_idle_intr(int irq, void *data)
2979 {
2980         struct qib_pportdata *ppd = data;
2981         struct qib_devdata *dd = ppd->dd;
2982
2983         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
2984                 /*
2985                  * This return value is not great, but we do not want the
2986                  * interrupt core code to remove our interrupt handler
2987                  * because we don't appear to be handling an interrupt
2988                  * during a chip reset.
2989                  */
2990                 return IRQ_HANDLED;
2991
2992         qib_stats.sps_ints++;
2993         if (dd->int_counter != (u32) -1)
2994                 dd->int_counter++;
2995
2996         /* Clear the interrupt bit we expect to be set. */
2997         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
2998                        INT_MASK_P(SDmaIdle, 1) : INT_MASK_P(SDmaIdle, 0));
2999         qib_sdma_intr(ppd);
3000
3001         return IRQ_HANDLED;
3002 }
3003
3004 /*
3005  * Dedicated Send DMA progress interrupt handler.
3006  */
3007 static irqreturn_t sdma_progress_intr(int irq, void *data)
3008 {
3009         struct qib_pportdata *ppd = data;
3010         struct qib_devdata *dd = ppd->dd;
3011
3012         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
3013                 /*
3014                  * This return value is not great, but we do not want the
3015                  * interrupt core code to remove our interrupt handler
3016                  * because we don't appear to be handling an interrupt
3017                  * during a chip reset.
3018                  */
3019                 return IRQ_HANDLED;
3020
3021         qib_stats.sps_ints++;
3022         if (dd->int_counter != (u32) -1)
3023                 dd->int_counter++;
3024
3025         /* Clear the interrupt bit we expect to be set. */
3026         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
3027                        INT_MASK_P(SDmaProgress, 1) :
3028                        INT_MASK_P(SDmaProgress, 0));
3029         qib_sdma_intr(ppd);
3030
3031         return IRQ_HANDLED;
3032 }
3033
3034 /*
3035  * Dedicated Send DMA cleanup interrupt handler.
3036  */
3037 static irqreturn_t sdma_cleanup_intr(int irq, void *data)
3038 {
3039         struct qib_pportdata *ppd = data;
3040         struct qib_devdata *dd = ppd->dd;
3041
3042         if ((dd->flags & (QIB_PRESENT | QIB_BADINTR)) != QIB_PRESENT)
3043                 /*
3044                  * This return value is not great, but we do not want the
3045                  * interrupt core code to remove our interrupt handler
3046                  * because we don't appear to be handling an interrupt
3047                  * during a chip reset.
3048                  */
3049                 return IRQ_HANDLED;
3050
3051         qib_stats.sps_ints++;
3052         if (dd->int_counter != (u32) -1)
3053                 dd->int_counter++;
3054
3055         /* Clear the interrupt bit we expect to be set. */
3056         qib_write_kreg(dd, kr_intclear, ppd->hw_pidx ?
3057                        INT_MASK_PM(SDmaCleanupDone, 1) :
3058                        INT_MASK_PM(SDmaCleanupDone, 0));
3059         qib_sdma_process_event(ppd, qib_sdma_event_e20_hw_started);
3060
3061         return IRQ_HANDLED;
3062 }
3063
3064 /*
3065  * Set up our chip-specific interrupt handler.
3066  * The interrupt type has already been setup, so
3067  * we just need to do the registration and error checking.
3068  * If we are using MSIx interrupts, we may fall back to
3069  * INTx later, if the interrupt handler doesn't get called
3070  * within 1/2 second (see verify_interrupt()).
3071  */
3072 static void qib_setup_7322_interrupt(struct qib_devdata *dd, int clearpend)
3073 {
3074         int ret, i, msixnum;
3075         u64 redirect[6];
3076         u64 mask;
3077
3078         if (!dd->num_pports)
3079                 return;
3080
3081         if (clearpend) {
3082                 /*
3083                  * if not switching interrupt types, be sure interrupts are
3084                  * disabled, and then clear anything pending at this point,
3085                  * because we are starting clean.
3086                  */
3087                 qib_7322_set_intr_state(dd, 0);
3088
3089                 /* clear the reset error, init error/hwerror mask */
3090                 qib_7322_init_hwerrors(dd);
3091
3092                 /* clear any interrupt bits that might be set */
3093                 qib_write_kreg(dd, kr_intclear, ~0ULL);
3094
3095                 /* make sure no pending MSIx intr, and clear diag reg */
3096                 qib_write_kreg(dd, kr_intgranted, ~0ULL);
3097                 qib_write_kreg(dd, kr_vecclr_wo_int, ~0ULL);
3098         }
3099
3100         if (!dd->cspec->num_msix_entries) {
3101                 /* Try to get INTx interrupt */
3102 try_intx:
3103                 if (!dd->pcidev->irq) {
3104                         qib_dev_err(dd, "irq is 0, BIOS error?  "
3105                                     "Interrupts won't work\n");
3106                         goto bail;
3107                 }
3108                 ret = request_irq(dd->pcidev->irq, qib_7322intr,
3109                                   IRQF_SHARED, QIB_DRV_NAME, dd);
3110                 if (ret) {
3111                         qib_dev_err(dd, "Couldn't setup INTx "
3112                                     "interrupt (irq=%d): %d\n",
3113                                     dd->pcidev->irq, ret);
3114                         goto bail;
3115                 }
3116                 dd->cspec->irq = dd->pcidev->irq;
3117                 dd->cspec->main_int_mask = ~0ULL;
3118                 goto bail;
3119         }
3120
3121         /* Try to get MSIx interrupts */
3122         memset(redirect, 0, sizeof redirect);
3123         mask = ~0ULL;
3124         msixnum = 0;
3125         for (i = 0; msixnum < dd->cspec->num_msix_entries; i++) {
3126                 irq_handler_t handler;
3127                 const char *name;
3128                 void *arg;
3129                 u64 val;
3130                 int lsb, reg, sh;
3131
3132                 if (i < ARRAY_SIZE(irq_table)) {
3133                         if (irq_table[i].port) {
3134                                 /* skip if for a non-configured port */
3135                                 if (irq_table[i].port > dd->num_pports)
3136                                         continue;
3137                                 arg = dd->pport + irq_table[i].port - 1;
3138                         } else
3139                                 arg = dd;
3140                         lsb = irq_table[i].lsb;
3141                         handler = irq_table[i].handler;
3142                         name = irq_table[i].name;
3143                 } else {
3144                         unsigned ctxt;
3145
3146                         ctxt = i - ARRAY_SIZE(irq_table);
3147                         /* per krcvq context receive interrupt */
3148                         arg = dd->rcd[ctxt];
3149                         if (!arg)
3150                                 continue;
3151                         if (qib_krcvq01_no_msi && ctxt < 2)
3152                                 continue;
3153                         lsb = QIB_I_RCVAVAIL_LSB + ctxt;
3154                         handler = qib_7322pintr;
3155                         name = QIB_DRV_NAME " (kctx)";
3156                 }
3157                 ret = request_irq(dd->cspec->msix_entries[msixnum].vector,
3158                                   handler, 0, name, arg);
3159                 if (ret) {
3160                         /*
3161                          * Shouldn't happen since the enable said we could
3162                          * have as many as we are trying to setup here.
3163                          */
3164                         qib_dev_err(dd, "Couldn't setup MSIx "
3165                                     "interrupt (vec=%d, irq=%d): %d\n", msixnum,
3166                                     dd->cspec->msix_entries[msixnum].vector,
3167                                     ret);
3168                         qib_7322_nomsix(dd);
3169                         goto try_intx;
3170                 }
3171                 dd->cspec->msix_arg[msixnum] = arg;
3172                 if (lsb >= 0) {
3173                         reg = lsb / IBA7322_REDIRECT_VEC_PER_REG;
3174                         sh = (lsb % IBA7322_REDIRECT_VEC_PER_REG) *
3175                                 SYM_LSB(IntRedirect0, vec1);
3176                         mask &= ~(1ULL << lsb);
3177                         redirect[reg] |= ((u64) msixnum) << sh;
3178                 }
3179                 val = qib_read_kreg64(dd, 2 * msixnum + 1 +
3180                         (QIB_7322_MsixTable_OFFS / sizeof(u64)));
3181                 msixnum++;
3182         }
3183         /* Initialize the vector mapping */
3184         for (i = 0; i < ARRAY_SIZE(redirect); i++)
3185                 qib_write_kreg(dd, kr_intredirect + i, redirect[i]);
3186         dd->cspec->main_int_mask = mask;
3187         tasklet_init(&dd->error_tasklet, qib_error_tasklet,
3188                 (unsigned long)dd);
3189 bail:;
3190 }
3191
3192 /**
3193  * qib_7322_boardname - fill in the board name and note features
3194  * @dd: the qlogic_ib device
3195  *
3196  * info will be based on the board revision register
3197  */
3198 static unsigned qib_7322_boardname(struct qib_devdata *dd)
3199 {
3200         /* Will need enumeration of board-types here */
3201         char *n;
3202         u32 boardid, namelen;
3203         unsigned features = DUAL_PORT_CAP;
3204
3205         boardid = SYM_FIELD(dd->revision, Revision, BoardID);
3206
3207         switch (boardid) {
3208         case 0:
3209                 n = "InfiniPath_QLE7342_Emulation";
3210                 break;
3211         case 1:
3212                 n = "InfiniPath_QLE7340";
3213                 dd->flags |= QIB_HAS_QSFP;
3214                 features = PORT_SPD_CAP;
3215                 break;
3216         case 2:
3217                 n = "InfiniPath_QLE7342";
3218                 dd->flags |= QIB_HAS_QSFP;
3219                 break;
3220         case 3:
3221                 n = "InfiniPath_QMI7342";
3222                 break;
3223         case 4:
3224                 n = "InfiniPath_Unsupported7342";
3225                 qib_dev_err(dd, "Unsupported version of QMH7342\n");
3226                 features = 0;
3227                 break;
3228         case BOARD_QMH7342:
3229                 n = "InfiniPath_QMH7342";
3230                 features = 0x24;
3231                 break;
3232         case BOARD_QME7342:
3233                 n = "InfiniPath_QME7342";
3234                 break;
3235         case 8:
3236                 n = "InfiniPath_QME7362";
3237                 dd->flags |= QIB_HAS_QSFP;
3238                 break;
3239         case 15:
3240                 n = "InfiniPath_QLE7342_TEST";
3241                 dd->flags |= QIB_HAS_QSFP;
3242                 break;
3243         default:
3244                 n = "InfiniPath_QLE73xy_UNKNOWN";
3245                 qib_dev_err(dd, "Unknown 7322 board type %u\n", boardid);
3246                 break;
3247         }
3248         dd->board_atten = 1; /* index into txdds_Xdr */
3249
3250         namelen = strlen(n) + 1;
3251         dd->boardname = kmalloc(namelen, GFP_KERNEL);
3252         if (!dd->boardname)
3253                 qib_dev_err(dd, "Failed allocation for board name: %s\n", n);
3254         else
3255                 snprintf(dd->boardname, namelen, "%s", n);
3256
3257         snprintf(dd->boardversion, sizeof(dd->boardversion),
3258                  "ChipABI %u.%u, %s, InfiniPath%u %u.%u, SW Compat %u\n",
3259                  QIB_CHIP_VERS_MAJ, QIB_CHIP_VERS_MIN, dd->boardname,
3260                  (unsigned)SYM_FIELD(dd->revision, Revision_R, Arch),
3261                  dd->majrev, dd->minrev,
3262                  (unsigned)SYM_FIELD(dd->revision, Revision_R, SW));
3263
3264         if (qib_singleport && (features >> PORT_SPD_CAP_SHIFT) & PORT_SPD_CAP) {
3265                 qib_devinfo(dd->pcidev, "IB%u: Forced to single port mode"
3266                             " by module parameter\n", dd->unit);
3267                 features &= PORT_SPD_CAP;
3268         }
3269
3270         return features;
3271 }
3272
3273 /*
3274  * This routine sleeps, so it can only be called from user context, not
3275  * from interrupt context.
3276  */
3277 static int qib_do_7322_reset(struct qib_devdata *dd)
3278 {
3279         u64 val;
3280         u64 *msix_vecsave;
3281         int i, msix_entries, ret = 1;
3282         u16 cmdval;
3283         u8 int_line, clinesz;
3284         unsigned long flags;
3285
3286         /* Use dev_err so it shows up in logs, etc. */
3287         qib_dev_err(dd, "Resetting InfiniPath unit %u\n", dd->unit);
3288
3289         qib_pcie_getcmd(dd, &cmdval, &int_line, &clinesz);
3290
3291         msix_entries = dd->cspec->num_msix_entries;
3292
3293         /* no interrupts till re-initted */
3294         qib_7322_set_intr_state(dd, 0);
3295
3296         if (msix_entries) {
3297                 qib_7322_nomsix(dd);
3298                 /* can be up to 512 bytes, too big for stack */
3299                 msix_vecsave = kmalloc(2 * dd->cspec->num_msix_entries *
3300                         sizeof(u64), GFP_KERNEL);
3301                 if (!msix_vecsave)
3302                         qib_dev_err(dd, "No mem to save MSIx data\n");
3303         } else
3304                 msix_vecsave = NULL;
3305
3306         /*
3307          * Core PCI (as of 2.6.18) doesn't save or rewrite the full vector
3308          * info that is set up by the BIOS, so we have to save and restore
3309          * it ourselves.   There is some risk something could change it,
3310          * after we save it, but since we have disabled the MSIx, it
3311          * shouldn't be touched...
3312          */
3313         for (i = 0; i < msix_entries; i++) {
3314                 u64 vecaddr, vecdata;
3315                 vecaddr = qib_read_kreg64(dd, 2 * i +
3316                                   (QIB_7322_MsixTable_OFFS / sizeof(u64)));
3317                 vecdata = qib_read_kreg64(dd, 1 + 2 * i +
3318                                   (QIB_7322_MsixTable_OFFS / sizeof(u64)));
3319                 if (msix_vecsave) {
3320                         msix_vecsave[2 * i] = vecaddr;
3321                         /* save it without the masked bit set */
3322                         msix_vecsave[1 + 2 * i] = vecdata & ~0x100000000ULL;
3323                 }
3324         }
3325
3326         dd->pport->cpspec->ibdeltainprog = 0;
3327         dd->pport->cpspec->ibsymdelta = 0;
3328         dd->pport->cpspec->iblnkerrdelta = 0;
3329         dd->pport->cpspec->ibmalfdelta = 0;
3330         dd->int_counter = 0; /* so we check interrupts work again */
3331
3332         /*
3333          * Keep chip from being accessed until we are ready.  Use
3334          * writeq() directly, to allow the write even though QIB_PRESENT
3335          * isn't set.
3336          */
3337         dd->flags &= ~(QIB_INITTED | QIB_PRESENT | QIB_BADINTR);
3338         dd->flags |= QIB_DOING_RESET;
3339         val = dd->control | QLOGIC_IB_C_RESET;
3340         writeq(val, &dd->kregbase[kr_control]);
3341
3342         for (i = 1; i <= 5; i++) {
3343                 /*
3344                  * Allow MBIST, etc. to complete; longer on each retry.
3345                  * We sometimes get machine checks from bus timeout if no
3346                  * response, so for now, make it *really* long.
3347                  */
3348                 msleep(1000 + (1 + i) * 3000);
3349
3350                 qib_pcie_reenable(dd, cmdval, int_line, clinesz);
3351
3352                 /*
3353                  * Use readq directly, so we don't need to mark it as PRESENT
3354                  * until we get a successful indication that all is well.
3355                  */
3356                 val = readq(&dd->kregbase[kr_revision]);
3357                 if (val == dd->revision)
3358                         break;
3359                 if (i == 5) {
3360                         qib_dev_err(dd, "Failed to initialize after reset, "
3361                                     "unusable\n");
3362                         ret = 0;
3363                         goto  bail;
3364                 }
3365         }
3366
3367         dd->flags |= QIB_PRESENT; /* it's back */
3368
3369         if (msix_entries) {
3370                 /* restore the MSIx vector address and data if saved above */
3371                 for (i = 0; i < msix_entries; i++) {
3372                         dd->cspec->msix_entries[i].entry = i;
3373                         if (!msix_vecsave || !msix_vecsave[2 * i])
3374                                 continue;
3375                         qib_write_kreg(dd, 2 * i +
3376                                 (QIB_7322_MsixTable_OFFS / sizeof(u64)),
3377                                 msix_vecsave[2 * i]);
3378                         qib_write_kreg(dd, 1 + 2 * i +
3379                                 (QIB_7322_MsixTable_OFFS / sizeof(u64)),
3380                                 msix_vecsave[1 + 2 * i]);
3381                 }
3382         }
3383
3384         /* initialize the remaining registers.  */
3385         for (i = 0; i < dd->num_pports; ++i)
3386                 write_7322_init_portregs(&dd->pport[i]);
3387         write_7322_initregs(dd);
3388
3389         if (qib_pcie_params(dd, dd->lbus_width,
3390                             &dd->cspec->num_msix_entries,
3391                             dd->cspec->msix_entries))
3392                 qib_dev_err(dd, "Reset failed to setup PCIe or interrupts; "
3393                                 "continuing anyway\n");
3394
3395         qib_setup_7322_interrupt(dd, 1);
3396
3397         for (i = 0; i < dd->num_pports; ++i) {
3398                 struct qib_pportdata *ppd = &dd->pport[i];
3399
3400                 spin_lock_irqsave(&ppd->lflags_lock, flags);
3401                 ppd->lflags |= QIBL_IB_FORCE_NOTIFY;
3402                 ppd->lflags &= ~QIBL_IB_AUTONEG_FAILED;
3403                 spin_unlock_irqrestore(&ppd->lflags_lock, flags);
3404         }
3405
3406 bail:
3407         dd->flags &= ~QIB_DOING_RESET; /* OK or not, no longer resetting */
3408         kfree(msix_vecsave);
3409         return ret;
3410 }
3411
3412 /**
3413  * qib_7322_put_tid - write a TID to the chip
3414  * @dd: the qlogic_ib device
3415  * @tidptr: pointer to the expected TID (in chip) to update
3416  * @tidtype: 0 for eager, 1 for expected
3417  * @pa: physical address of in memory buffer; tidinvalid if freeing
3418  */
3419 static void qib_7322_put_tid(struct qib_devdata *dd, u64 __iomem *tidptr,
3420                              u32 type, unsigned long pa)
3421 {
3422         if (!(dd->flags & QIB_PRESENT))
3423                 return;
3424         if (pa != dd->tidinvalid) {
3425                 u64 chippa = pa >> IBA7322_TID_PA_SHIFT;
3426
3427                 /* paranoia checks */
3428                 if (pa != (chippa << IBA7322_TID_PA_SHIFT)) {
3429                         qib_dev_err(dd, "Physaddr %lx not 2KB aligned!\n",
3430                                     pa);
3431                         return;
3432                 }
3433                 if (chippa >= (1UL << IBA7322_TID_SZ_SHIFT)) {
3434                         qib_dev_err(dd, "Physical page address 0x%lx "
3435                                 "larger than supported\n", pa);
3436                         return;
3437                 }
3438
3439                 if (type == RCVHQ_RCV_TYPE_EAGER)
3440                         chippa |= dd->tidtemplate;
3441                 else /* for now, always full 4KB page */
3442                         chippa |= IBA7322_TID_SZ_4K;
3443                 pa = chippa;
3444         }
3445         writeq(pa, tidptr);
3446         mmiowb();
3447 }
3448
3449 /**