Merge master.kernel.org:/pub/scm/linux/kernel/git/davem/net-2.6
[pandora-kernel.git] / drivers / net / tulip / winbond-840.c
1 /* winbond-840.c: A Linux PCI network adapter device driver. */
2 /*
3         Written 1998-2001 by Donald Becker.
4
5         This software may be used and distributed according to the terms of
6         the GNU General Public License (GPL), incorporated herein by reference.
7         Drivers based on or derived from this code fall under the GPL and must
8         retain the authorship, copyright and license notice.  This file is not
9         a complete program and may only be used when the entire operating
10         system is licensed under the GPL.
11
12         The author may be reached as becker@scyld.com, or C/O
13         Scyld Computing Corporation
14         410 Severn Ave., Suite 210
15         Annapolis MD 21403
16
17         Support and updates available at
18         http://www.scyld.com/network/drivers.html
19
20         Do not remove the copyright information.
21         Do not change the version information unless an improvement has been made.
22         Merely removing my name, as Compex has done in the past, does not count
23         as an improvement.
24
25         Changelog:
26         * ported to 2.4
27                 ???
28         * spin lock update, memory barriers, new style dma mappings
29                 limit each tx buffer to < 1024 bytes
30                 remove DescIntr from Rx descriptors (that's an Tx flag)
31                 remove next pointer from Tx descriptors
32                 synchronize tx_q_bytes
33                 software reset in tx_timeout
34                         Copyright (C) 2000 Manfred Spraul
35         * further cleanups
36                 power management.
37                 support for big endian descriptors
38                         Copyright (C) 2001 Manfred Spraul
39         * ethtool support (jgarzik)
40         * Replace some MII-related magic numbers with constants (jgarzik)
41
42         TODO:
43         * enable pci_power_off
44         * Wake-On-LAN
45 */
46
47 #define DRV_NAME        "winbond-840"
48 #define DRV_VERSION     "1.01-e"
49 #define DRV_RELDATE     "Sep-11-2006"
50
51
52 /* Automatically extracted configuration info:
53 probe-func: winbond840_probe
54 config-in: tristate 'Winbond W89c840 Ethernet support' CONFIG_WINBOND_840
55
56 c-help-name: Winbond W89c840 PCI Ethernet support
57 c-help-symbol: CONFIG_WINBOND_840
58 c-help: This driver is for the Winbond W89c840 chip.  It also works with
59 c-help: the TX9882 chip on the Compex RL100-ATX board.
60 c-help: More specific information and updates are available from
61 c-help: http://www.scyld.com/network/drivers.html
62 */
63
64 /* The user-configurable values.
65    These may be modified when a driver module is loaded.*/
66
67 static int debug = 1;                   /* 1 normal messages, 0 quiet .. 7 verbose. */
68 static int max_interrupt_work = 20;
69 /* Maximum number of multicast addresses to filter (vs. Rx-all-multicast).
70    The '840 uses a 64 element hash table based on the Ethernet CRC.  */
71 static int multicast_filter_limit = 32;
72
73 /* Set the copy breakpoint for the copy-only-tiny-frames scheme.
74    Setting to > 1518 effectively disables this feature. */
75 static int rx_copybreak;
76
77 /* Used to pass the media type, etc.
78    Both 'options[]' and 'full_duplex[]' should exist for driver
79    interoperability.
80    The media type is usually passed in 'options[]'.
81 */
82 #define MAX_UNITS 8             /* More are supported, limit only on options */
83 static int options[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
84 static int full_duplex[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
85
86 /* Operational parameters that are set at compile time. */
87
88 /* Keep the ring sizes a power of two for compile efficiency.
89    The compiler will convert <unsigned>'%'<2^N> into a bit mask.
90    Making the Tx ring too large decreases the effectiveness of channel
91    bonding and packet priority.
92    There are no ill effects from too-large receive rings. */
93 #define TX_QUEUE_LEN    10              /* Limit ring entries actually used.  */
94 #define TX_QUEUE_LEN_RESTART    5
95
96 #define TX_BUFLIMIT     (1024-128)
97
98 /* The presumed FIFO size for working around the Tx-FIFO-overflow bug.
99    To avoid overflowing we don't queue again until we have room for a
100    full-size packet.
101  */
102 #define TX_FIFO_SIZE (2048)
103 #define TX_BUG_FIFO_LIMIT (TX_FIFO_SIZE-1514-16)
104
105
106 /* Operational parameters that usually are not changed. */
107 /* Time in jiffies before concluding the transmitter is hung. */
108 #define TX_TIMEOUT  (2*HZ)
109
110 #define PKT_BUF_SZ              1536                    /* Size of each temporary Rx buffer.*/
111
112 /* Include files, designed to support most kernel versions 2.0.0 and later. */
113 #include <linux/module.h>
114 #include <linux/kernel.h>
115 #include <linux/string.h>
116 #include <linux/timer.h>
117 #include <linux/errno.h>
118 #include <linux/ioport.h>
119 #include <linux/slab.h>
120 #include <linux/interrupt.h>
121 #include <linux/pci.h>
122 #include <linux/dma-mapping.h>
123 #include <linux/netdevice.h>
124 #include <linux/etherdevice.h>
125 #include <linux/skbuff.h>
126 #include <linux/init.h>
127 #include <linux/delay.h>
128 #include <linux/ethtool.h>
129 #include <linux/mii.h>
130 #include <linux/rtnetlink.h>
131 #include <linux/crc32.h>
132 #include <linux/bitops.h>
133 #include <asm/uaccess.h>
134 #include <asm/processor.h>              /* Processor type for cache alignment. */
135 #include <asm/io.h>
136 #include <asm/irq.h>
137
138 #include "tulip.h"
139
140 /* These identify the driver base version and may not be removed. */
141 static char version[] =
142 KERN_INFO DRV_NAME ".c:v" DRV_VERSION " (2.4 port) " DRV_RELDATE "  Donald Becker <becker@scyld.com>\n"
143 KERN_INFO "  http://www.scyld.com/network/drivers.html\n";
144
145 MODULE_AUTHOR("Donald Becker <becker@scyld.com>");
146 MODULE_DESCRIPTION("Winbond W89c840 Ethernet driver");
147 MODULE_LICENSE("GPL");
148 MODULE_VERSION(DRV_VERSION);
149
150 module_param(max_interrupt_work, int, 0);
151 module_param(debug, int, 0);
152 module_param(rx_copybreak, int, 0);
153 module_param(multicast_filter_limit, int, 0);
154 module_param_array(options, int, NULL, 0);
155 module_param_array(full_duplex, int, NULL, 0);
156 MODULE_PARM_DESC(max_interrupt_work, "winbond-840 maximum events handled per interrupt");
157 MODULE_PARM_DESC(debug, "winbond-840 debug level (0-6)");
158 MODULE_PARM_DESC(rx_copybreak, "winbond-840 copy breakpoint for copy-only-tiny-frames");
159 MODULE_PARM_DESC(multicast_filter_limit, "winbond-840 maximum number of filtered multicast addresses");
160 MODULE_PARM_DESC(options, "winbond-840: Bits 0-3: media type, bit 17: full duplex");
161 MODULE_PARM_DESC(full_duplex, "winbond-840 full duplex setting(s) (1)");
162
163 /*
164                                 Theory of Operation
165
166 I. Board Compatibility
167
168 This driver is for the Winbond w89c840 chip.
169
170 II. Board-specific settings
171
172 None.
173
174 III. Driver operation
175
176 This chip is very similar to the Digital 21*4* "Tulip" family.  The first
177 twelve registers and the descriptor format are nearly identical.  Read a
178 Tulip manual for operational details.
179
180 A significant difference is that the multicast filter and station address are
181 stored in registers rather than loaded through a pseudo-transmit packet.
182
183 Unlike the Tulip, transmit buffers are limited to 1KB.  To transmit a
184 full-sized packet we must use both data buffers in a descriptor.  Thus the
185 driver uses ring mode where descriptors are implicitly sequential in memory,
186 rather than using the second descriptor address as a chain pointer to
187 subsequent descriptors.
188
189 IV. Notes
190
191 If you are going to almost clone a Tulip, why not go all the way and avoid
192 the need for a new driver?
193
194 IVb. References
195
196 http://www.scyld.com/expert/100mbps.html
197 http://www.scyld.com/expert/NWay.html
198 http://www.winbond.com.tw/
199
200 IVc. Errata
201
202 A horrible bug exists in the transmit FIFO.  Apparently the chip doesn't
203 correctly detect a full FIFO, and queuing more than 2048 bytes may result in
204 silent data corruption.
205
206 Test with 'ping -s 10000' on a fast computer.
207
208 */
209
210
211
212 /*
213   PCI probe table.
214 */
215 enum chip_capability_flags {
216         CanHaveMII=1, HasBrokenTx=2, AlwaysFDX=4, FDXOnNoMII=8,
217 };
218
219 static const struct pci_device_id w840_pci_tbl[] = {
220         { 0x1050, 0x0840, PCI_ANY_ID, 0x8153,     0, 0, 0 },
221         { 0x1050, 0x0840, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 1 },
222         { 0x11f6, 0x2011, PCI_ANY_ID, PCI_ANY_ID, 0, 0, 2 },
223         { }
224 };
225 MODULE_DEVICE_TABLE(pci, w840_pci_tbl);
226
227 enum {
228         netdev_res_size         = 128,  /* size of PCI BAR resource */
229 };
230
231 struct pci_id_info {
232         const char *name;
233         int drv_flags;          /* Driver use, intended as capability flags. */
234 };
235
236 static const struct pci_id_info pci_id_tbl[] __devinitdata = {
237         {                               /* Sometime a Level-One switch card. */
238           "Winbond W89c840",    CanHaveMII | HasBrokenTx | FDXOnNoMII},
239         { "Winbond W89c840",    CanHaveMII | HasBrokenTx},
240         { "Compex RL100-ATX",   CanHaveMII | HasBrokenTx},
241         { }     /* terminate list. */
242 };
243
244 /* This driver was written to use PCI memory space, however some x86 systems
245    work only with I/O space accesses. See CONFIG_TULIP_MMIO in .config
246 */
247
248 /* Offsets to the Command and Status Registers, "CSRs".
249    While similar to the Tulip, these registers are longword aligned.
250    Note: It's not useful to define symbolic names for every register bit in
251    the device.  The name can only partially document the semantics and make
252    the driver longer and more difficult to read.
253 */
254 enum w840_offsets {
255         PCIBusCfg=0x00, TxStartDemand=0x04, RxStartDemand=0x08,
256         RxRingPtr=0x0C, TxRingPtr=0x10,
257         IntrStatus=0x14, NetworkConfig=0x18, IntrEnable=0x1C,
258         RxMissed=0x20, EECtrl=0x24, MIICtrl=0x24, BootRom=0x28, GPTimer=0x2C,
259         CurRxDescAddr=0x30, CurRxBufAddr=0x34,                  /* Debug use */
260         MulticastFilter0=0x38, MulticastFilter1=0x3C, StationAddr=0x40,
261         CurTxDescAddr=0x4C, CurTxBufAddr=0x50,
262 };
263
264 /* Bits in the NetworkConfig register. */
265 enum rx_mode_bits {
266         AcceptErr=0x80,
267         RxAcceptBroadcast=0x20, AcceptMulticast=0x10,
268         RxAcceptAllPhys=0x08, AcceptMyPhys=0x02,
269 };
270
271 enum mii_reg_bits {
272         MDIO_ShiftClk=0x10000, MDIO_DataIn=0x80000, MDIO_DataOut=0x20000,
273         MDIO_EnbOutput=0x40000, MDIO_EnbIn = 0x00000,
274 };
275
276 /* The Tulip Rx and Tx buffer descriptors. */
277 struct w840_rx_desc {
278         s32 status;
279         s32 length;
280         u32 buffer1;
281         u32 buffer2;
282 };
283
284 struct w840_tx_desc {
285         s32 status;
286         s32 length;
287         u32 buffer1, buffer2;
288 };
289
290 #define MII_CNT         1 /* winbond only supports one MII */
291 struct netdev_private {
292         struct w840_rx_desc *rx_ring;
293         dma_addr_t      rx_addr[RX_RING_SIZE];
294         struct w840_tx_desc *tx_ring;
295         dma_addr_t      tx_addr[TX_RING_SIZE];
296         dma_addr_t ring_dma_addr;
297         /* The addresses of receive-in-place skbuffs. */
298         struct sk_buff* rx_skbuff[RX_RING_SIZE];
299         /* The saved address of a sent-in-place packet/buffer, for later free(). */
300         struct sk_buff* tx_skbuff[TX_RING_SIZE];
301         struct net_device_stats stats;
302         struct timer_list timer;        /* Media monitoring timer. */
303         /* Frequently used values: keep some adjacent for cache effect. */
304         spinlock_t lock;
305         int chip_id, drv_flags;
306         struct pci_dev *pci_dev;
307         int csr6;
308         struct w840_rx_desc *rx_head_desc;
309         unsigned int cur_rx, dirty_rx;          /* Producer/consumer ring indices */
310         unsigned int rx_buf_sz;                         /* Based on MTU+slack. */
311         unsigned int cur_tx, dirty_tx;
312         unsigned int tx_q_bytes;
313         unsigned int tx_full;                           /* The Tx queue is full. */
314         /* MII transceiver section. */
315         int mii_cnt;                                            /* MII device addresses. */
316         unsigned char phys[MII_CNT];            /* MII device addresses, but only the first is used */
317         u32 mii;
318         struct mii_if_info mii_if;
319         void __iomem *base_addr;
320 };
321
322 static int  eeprom_read(void __iomem *ioaddr, int location);
323 static int  mdio_read(struct net_device *dev, int phy_id, int location);
324 static void mdio_write(struct net_device *dev, int phy_id, int location, int value);
325 static int  netdev_open(struct net_device *dev);
326 static int  update_link(struct net_device *dev);
327 static void netdev_timer(unsigned long data);
328 static void init_rxtx_rings(struct net_device *dev);
329 static void free_rxtx_rings(struct netdev_private *np);
330 static void init_registers(struct net_device *dev);
331 static void tx_timeout(struct net_device *dev);
332 static int alloc_ringdesc(struct net_device *dev);
333 static void free_ringdesc(struct netdev_private *np);
334 static int  start_tx(struct sk_buff *skb, struct net_device *dev);
335 static irqreturn_t intr_handler(int irq, void *dev_instance);
336 static void netdev_error(struct net_device *dev, int intr_status);
337 static int  netdev_rx(struct net_device *dev);
338 static u32 __set_rx_mode(struct net_device *dev);
339 static void set_rx_mode(struct net_device *dev);
340 static struct net_device_stats *get_stats(struct net_device *dev);
341 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd);
342 static const struct ethtool_ops netdev_ethtool_ops;
343 static int  netdev_close(struct net_device *dev);
344
345
346
347 static int __devinit w840_probe1 (struct pci_dev *pdev,
348                                   const struct pci_device_id *ent)
349 {
350         struct net_device *dev;
351         struct netdev_private *np;
352         static int find_cnt;
353         int chip_idx = ent->driver_data;
354         int irq;
355         int i, option = find_cnt < MAX_UNITS ? options[find_cnt] : 0;
356         void __iomem *ioaddr;
357
358         i = pci_enable_device(pdev);
359         if (i) return i;
360
361         pci_set_master(pdev);
362
363         irq = pdev->irq;
364
365         if (pci_set_dma_mask(pdev, DMA_32BIT_MASK)) {
366                 printk(KERN_WARNING "Winbond-840: Device %s disabled due to DMA limitations.\n",
367                        pci_name(pdev));
368                 return -EIO;
369         }
370         dev = alloc_etherdev(sizeof(*np));
371         if (!dev)
372                 return -ENOMEM;
373         SET_MODULE_OWNER(dev);
374         SET_NETDEV_DEV(dev, &pdev->dev);
375
376         if (pci_request_regions(pdev, DRV_NAME))
377                 goto err_out_netdev;
378
379         ioaddr = pci_iomap(pdev, TULIP_BAR, netdev_res_size);
380         if (!ioaddr)
381                 goto err_out_free_res;
382
383         for (i = 0; i < 3; i++)
384                 ((u16 *)dev->dev_addr)[i] = le16_to_cpu(eeprom_read(ioaddr, i));
385
386         /* Reset the chip to erase previous misconfiguration.
387            No hold time required! */
388         iowrite32(0x00000001, ioaddr + PCIBusCfg);
389
390         dev->base_addr = (unsigned long)ioaddr;
391         dev->irq = irq;
392
393         np = netdev_priv(dev);
394         np->pci_dev = pdev;
395         np->chip_id = chip_idx;
396         np->drv_flags = pci_id_tbl[chip_idx].drv_flags;
397         spin_lock_init(&np->lock);
398         np->mii_if.dev = dev;
399         np->mii_if.mdio_read = mdio_read;
400         np->mii_if.mdio_write = mdio_write;
401         np->base_addr = ioaddr;
402
403         pci_set_drvdata(pdev, dev);
404
405         if (dev->mem_start)
406                 option = dev->mem_start;
407
408         /* The lower four bits are the media type. */
409         if (option > 0) {
410                 if (option & 0x200)
411                         np->mii_if.full_duplex = 1;
412                 if (option & 15)
413                         printk(KERN_INFO "%s: ignoring user supplied media type %d",
414                                 dev->name, option & 15);
415         }
416         if (find_cnt < MAX_UNITS  &&  full_duplex[find_cnt] > 0)
417                 np->mii_if.full_duplex = 1;
418
419         if (np->mii_if.full_duplex)
420                 np->mii_if.force_media = 1;
421
422         /* The chip-specific entries in the device structure. */
423         dev->open = &netdev_open;
424         dev->hard_start_xmit = &start_tx;
425         dev->stop = &netdev_close;
426         dev->get_stats = &get_stats;
427         dev->set_multicast_list = &set_rx_mode;
428         dev->do_ioctl = &netdev_ioctl;
429         dev->ethtool_ops = &netdev_ethtool_ops;
430         dev->tx_timeout = &tx_timeout;
431         dev->watchdog_timeo = TX_TIMEOUT;
432
433         i = register_netdev(dev);
434         if (i)
435                 goto err_out_cleardev;
436
437         printk(KERN_INFO "%s: %s at %p, ",
438                    dev->name, pci_id_tbl[chip_idx].name, ioaddr);
439         for (i = 0; i < 5; i++)
440                         printk("%2.2x:", dev->dev_addr[i]);
441         printk("%2.2x, IRQ %d.\n", dev->dev_addr[i], irq);
442
443         if (np->drv_flags & CanHaveMII) {
444                 int phy, phy_idx = 0;
445                 for (phy = 1; phy < 32 && phy_idx < MII_CNT; phy++) {
446                         int mii_status = mdio_read(dev, phy, MII_BMSR);
447                         if (mii_status != 0xffff  &&  mii_status != 0x0000) {
448                                 np->phys[phy_idx++] = phy;
449                                 np->mii_if.advertising = mdio_read(dev, phy, MII_ADVERTISE);
450                                 np->mii = (mdio_read(dev, phy, MII_PHYSID1) << 16)+
451                                                 mdio_read(dev, phy, MII_PHYSID2);
452                                 printk(KERN_INFO "%s: MII PHY %8.8xh found at address %d, status "
453                                            "0x%4.4x advertising %4.4x.\n",
454                                            dev->name, np->mii, phy, mii_status, np->mii_if.advertising);
455                         }
456                 }
457                 np->mii_cnt = phy_idx;
458                 np->mii_if.phy_id = np->phys[0];
459                 if (phy_idx == 0) {
460                                 printk(KERN_WARNING "%s: MII PHY not found -- this device may "
461                                            "not operate correctly.\n", dev->name);
462                 }
463         }
464
465         find_cnt++;
466         return 0;
467
468 err_out_cleardev:
469         pci_set_drvdata(pdev, NULL);
470         pci_iounmap(pdev, ioaddr);
471 err_out_free_res:
472         pci_release_regions(pdev);
473 err_out_netdev:
474         free_netdev (dev);
475         return -ENODEV;
476 }
477
478
479 /* Read the EEPROM and MII Management Data I/O (MDIO) interfaces.  These are
480    often serial bit streams generated by the host processor.
481    The example below is for the common 93c46 EEPROM, 64 16 bit words. */
482
483 /* Delay between EEPROM clock transitions.
484    No extra delay is needed with 33Mhz PCI, but future 66Mhz access may need
485    a delay.  Note that pre-2.0.34 kernels had a cache-alignment bug that
486    made udelay() unreliable.
487    The old method of using an ISA access as a delay, __SLOW_DOWN_IO__, is
488    depricated.
489 */
490 #define eeprom_delay(ee_addr)   ioread32(ee_addr)
491
492 enum EEPROM_Ctrl_Bits {
493         EE_ShiftClk=0x02, EE_Write0=0x801, EE_Write1=0x805,
494         EE_ChipSelect=0x801, EE_DataIn=0x08,
495 };
496
497 /* The EEPROM commands include the alway-set leading bit. */
498 enum EEPROM_Cmds {
499         EE_WriteCmd=(5 << 6), EE_ReadCmd=(6 << 6), EE_EraseCmd=(7 << 6),
500 };
501
502 static int eeprom_read(void __iomem *addr, int location)
503 {
504         int i;
505         int retval = 0;
506         void __iomem *ee_addr = addr + EECtrl;
507         int read_cmd = location | EE_ReadCmd;
508         iowrite32(EE_ChipSelect, ee_addr);
509
510         /* Shift the read command bits out. */
511         for (i = 10; i >= 0; i--) {
512                 short dataval = (read_cmd & (1 << i)) ? EE_Write1 : EE_Write0;
513                 iowrite32(dataval, ee_addr);
514                 eeprom_delay(ee_addr);
515                 iowrite32(dataval | EE_ShiftClk, ee_addr);
516                 eeprom_delay(ee_addr);
517         }
518         iowrite32(EE_ChipSelect, ee_addr);
519         eeprom_delay(ee_addr);
520
521         for (i = 16; i > 0; i--) {
522                 iowrite32(EE_ChipSelect | EE_ShiftClk, ee_addr);
523                 eeprom_delay(ee_addr);
524                 retval = (retval << 1) | ((ioread32(ee_addr) & EE_DataIn) ? 1 : 0);
525                 iowrite32(EE_ChipSelect, ee_addr);
526                 eeprom_delay(ee_addr);
527         }
528
529         /* Terminate the EEPROM access. */
530         iowrite32(0, ee_addr);
531         return retval;
532 }
533
534 /*  MII transceiver control section.
535         Read and write the MII registers using software-generated serial
536         MDIO protocol.  See the MII specifications or DP83840A data sheet
537         for details.
538
539         The maximum data clock rate is 2.5 Mhz.  The minimum timing is usually
540         met by back-to-back 33Mhz PCI cycles. */
541 #define mdio_delay(mdio_addr) ioread32(mdio_addr)
542
543 /* Set iff a MII transceiver on any interface requires mdio preamble.
544    This only set with older transceivers, so the extra
545    code size of a per-interface flag is not worthwhile. */
546 static char mii_preamble_required = 1;
547
548 #define MDIO_WRITE0 (MDIO_EnbOutput)
549 #define MDIO_WRITE1 (MDIO_DataOut | MDIO_EnbOutput)
550
551 /* Generate the preamble required for initial synchronization and
552    a few older transceivers. */
553 static void mdio_sync(void __iomem *mdio_addr)
554 {
555         int bits = 32;
556
557         /* Establish sync by sending at least 32 logic ones. */
558         while (--bits >= 0) {
559                 iowrite32(MDIO_WRITE1, mdio_addr);
560                 mdio_delay(mdio_addr);
561                 iowrite32(MDIO_WRITE1 | MDIO_ShiftClk, mdio_addr);
562                 mdio_delay(mdio_addr);
563         }
564 }
565
566 static int mdio_read(struct net_device *dev, int phy_id, int location)
567 {
568         struct netdev_private *np = netdev_priv(dev);
569         void __iomem *mdio_addr = np->base_addr + MIICtrl;
570         int mii_cmd = (0xf6 << 10) | (phy_id << 5) | location;
571         int i, retval = 0;
572
573         if (mii_preamble_required)
574                 mdio_sync(mdio_addr);
575
576         /* Shift the read command bits out. */
577         for (i = 15; i >= 0; i--) {
578                 int dataval = (mii_cmd & (1 << i)) ? MDIO_WRITE1 : MDIO_WRITE0;
579
580                 iowrite32(dataval, mdio_addr);
581                 mdio_delay(mdio_addr);
582                 iowrite32(dataval | MDIO_ShiftClk, mdio_addr);
583                 mdio_delay(mdio_addr);
584         }
585         /* Read the two transition, 16 data, and wire-idle bits. */
586         for (i = 20; i > 0; i--) {
587                 iowrite32(MDIO_EnbIn, mdio_addr);
588                 mdio_delay(mdio_addr);
589                 retval = (retval << 1) | ((ioread32(mdio_addr) & MDIO_DataIn) ? 1 : 0);
590                 iowrite32(MDIO_EnbIn | MDIO_ShiftClk, mdio_addr);
591                 mdio_delay(mdio_addr);
592         }
593         return (retval>>1) & 0xffff;
594 }
595
596 static void mdio_write(struct net_device *dev, int phy_id, int location, int value)
597 {
598         struct netdev_private *np = netdev_priv(dev);
599         void __iomem *mdio_addr = np->base_addr + MIICtrl;
600         int mii_cmd = (0x5002 << 16) | (phy_id << 23) | (location<<18) | value;
601         int i;
602
603         if (location == 4  &&  phy_id == np->phys[0])
604                 np->mii_if.advertising = value;
605
606         if (mii_preamble_required)
607                 mdio_sync(mdio_addr);
608
609         /* Shift the command bits out. */
610         for (i = 31; i >= 0; i--) {
611                 int dataval = (mii_cmd & (1 << i)) ? MDIO_WRITE1 : MDIO_WRITE0;
612
613                 iowrite32(dataval, mdio_addr);
614                 mdio_delay(mdio_addr);
615                 iowrite32(dataval | MDIO_ShiftClk, mdio_addr);
616                 mdio_delay(mdio_addr);
617         }
618         /* Clear out extra bits. */
619         for (i = 2; i > 0; i--) {
620                 iowrite32(MDIO_EnbIn, mdio_addr);
621                 mdio_delay(mdio_addr);
622                 iowrite32(MDIO_EnbIn | MDIO_ShiftClk, mdio_addr);
623                 mdio_delay(mdio_addr);
624         }
625         return;
626 }
627
628
629 static int netdev_open(struct net_device *dev)
630 {
631         struct netdev_private *np = netdev_priv(dev);
632         void __iomem *ioaddr = np->base_addr;
633         int i;
634
635         iowrite32(0x00000001, ioaddr + PCIBusCfg);              /* Reset */
636
637         netif_device_detach(dev);
638         i = request_irq(dev->irq, &intr_handler, IRQF_SHARED, dev->name, dev);
639         if (i)
640                 goto out_err;
641
642         if (debug > 1)
643                 printk(KERN_DEBUG "%s: w89c840_open() irq %d.\n",
644                            dev->name, dev->irq);
645
646         if((i=alloc_ringdesc(dev)))
647                 goto out_err;
648
649         spin_lock_irq(&np->lock);
650         netif_device_attach(dev);
651         init_registers(dev);
652         spin_unlock_irq(&np->lock);
653
654         netif_start_queue(dev);
655         if (debug > 2)
656                 printk(KERN_DEBUG "%s: Done netdev_open().\n", dev->name);
657
658         /* Set the timer to check for link beat. */
659         init_timer(&np->timer);
660         np->timer.expires = jiffies + 1*HZ;
661         np->timer.data = (unsigned long)dev;
662         np->timer.function = &netdev_timer;                             /* timer handler */
663         add_timer(&np->timer);
664         return 0;
665 out_err:
666         netif_device_attach(dev);
667         return i;
668 }
669
670 #define MII_DAVICOM_DM9101      0x0181b800
671
672 static int update_link(struct net_device *dev)
673 {
674         struct netdev_private *np = netdev_priv(dev);
675         int duplex, fasteth, result, mii_reg;
676
677         /* BSMR */
678         mii_reg = mdio_read(dev, np->phys[0], MII_BMSR);
679
680         if (mii_reg == 0xffff)
681                 return np->csr6;
682         /* reread: the link status bit is sticky */
683         mii_reg = mdio_read(dev, np->phys[0], MII_BMSR);
684         if (!(mii_reg & 0x4)) {
685                 if (netif_carrier_ok(dev)) {
686                         if (debug)
687                                 printk(KERN_INFO "%s: MII #%d reports no link. Disabling watchdog.\n",
688                                         dev->name, np->phys[0]);
689                         netif_carrier_off(dev);
690                 }
691                 return np->csr6;
692         }
693         if (!netif_carrier_ok(dev)) {
694                 if (debug)
695                         printk(KERN_INFO "%s: MII #%d link is back. Enabling watchdog.\n",
696                                 dev->name, np->phys[0]);
697                 netif_carrier_on(dev);
698         }
699
700         if ((np->mii & ~0xf) == MII_DAVICOM_DM9101) {
701                 /* If the link partner doesn't support autonegotiation
702                  * the MII detects it's abilities with the "parallel detection".
703                  * Some MIIs update the LPA register to the result of the parallel
704                  * detection, some don't.
705                  * The Davicom PHY [at least 0181b800] doesn't.
706                  * Instead bit 9 and 13 of the BMCR are updated to the result
707                  * of the negotiation..
708                  */
709                 mii_reg = mdio_read(dev, np->phys[0], MII_BMCR);
710                 duplex = mii_reg & BMCR_FULLDPLX;
711                 fasteth = mii_reg & BMCR_SPEED100;
712         } else {
713                 int negotiated;
714                 mii_reg = mdio_read(dev, np->phys[0], MII_LPA);
715                 negotiated = mii_reg & np->mii_if.advertising;
716
717                 duplex = (negotiated & LPA_100FULL) || ((negotiated & 0x02C0) == LPA_10FULL);
718                 fasteth = negotiated & 0x380;
719         }
720         duplex |= np->mii_if.force_media;
721         /* remove fastether and fullduplex */
722         result = np->csr6 & ~0x20000200;
723         if (duplex)
724                 result |= 0x200;
725         if (fasteth)
726                 result |= 0x20000000;
727         if (result != np->csr6 && debug)
728                 printk(KERN_INFO "%s: Setting %dMBit-%s-duplex based on MII#%d\n",
729                                  dev->name, fasteth ? 100 : 10,
730                                 duplex ? "full" : "half", np->phys[0]);
731         return result;
732 }
733
734 #define RXTX_TIMEOUT    2000
735 static inline void update_csr6(struct net_device *dev, int new)
736 {
737         struct netdev_private *np = netdev_priv(dev);
738         void __iomem *ioaddr = np->base_addr;
739         int limit = RXTX_TIMEOUT;
740
741         if (!netif_device_present(dev))
742                 new = 0;
743         if (new==np->csr6)
744                 return;
745         /* stop both Tx and Rx processes */
746         iowrite32(np->csr6 & ~0x2002, ioaddr + NetworkConfig);
747         /* wait until they have really stopped */
748         for (;;) {
749                 int csr5 = ioread32(ioaddr + IntrStatus);
750                 int t;
751
752                 t = (csr5 >> 17) & 0x07;
753                 if (t==0||t==1) {
754                         /* rx stopped */
755                         t = (csr5 >> 20) & 0x07;
756                         if (t==0||t==1)
757                                 break;
758                 }
759
760                 limit--;
761                 if(!limit) {
762                         printk(KERN_INFO "%s: couldn't stop rxtx, IntrStatus %xh.\n",
763                                         dev->name, csr5);
764                         break;
765                 }
766                 udelay(1);
767         }
768         np->csr6 = new;
769         /* and restart them with the new configuration */
770         iowrite32(np->csr6, ioaddr + NetworkConfig);
771         if (new & 0x200)
772                 np->mii_if.full_duplex = 1;
773 }
774
775 static void netdev_timer(unsigned long data)
776 {
777         struct net_device *dev = (struct net_device *)data;
778         struct netdev_private *np = netdev_priv(dev);
779         void __iomem *ioaddr = np->base_addr;
780
781         if (debug > 2)
782                 printk(KERN_DEBUG "%s: Media selection timer tick, status %8.8x "
783                            "config %8.8x.\n",
784                            dev->name, ioread32(ioaddr + IntrStatus),
785                            ioread32(ioaddr + NetworkConfig));
786         spin_lock_irq(&np->lock);
787         update_csr6(dev, update_link(dev));
788         spin_unlock_irq(&np->lock);
789         np->timer.expires = jiffies + 10*HZ;
790         add_timer(&np->timer);
791 }
792
793 static void init_rxtx_rings(struct net_device *dev)
794 {
795         struct netdev_private *np = netdev_priv(dev);
796         int i;
797
798         np->rx_head_desc = &np->rx_ring[0];
799         np->tx_ring = (struct w840_tx_desc*)&np->rx_ring[RX_RING_SIZE];
800
801         /* Initial all Rx descriptors. */
802         for (i = 0; i < RX_RING_SIZE; i++) {
803                 np->rx_ring[i].length = np->rx_buf_sz;
804                 np->rx_ring[i].status = 0;
805                 np->rx_skbuff[i] = NULL;
806         }
807         /* Mark the last entry as wrapping the ring. */
808         np->rx_ring[i-1].length |= DescEndRing;
809
810         /* Fill in the Rx buffers.  Handle allocation failure gracefully. */
811         for (i = 0; i < RX_RING_SIZE; i++) {
812                 struct sk_buff *skb = dev_alloc_skb(np->rx_buf_sz);
813                 np->rx_skbuff[i] = skb;
814                 if (skb == NULL)
815                         break;
816                 np->rx_addr[i] = pci_map_single(np->pci_dev,skb->data,
817                                         np->rx_buf_sz,PCI_DMA_FROMDEVICE);
818
819                 np->rx_ring[i].buffer1 = np->rx_addr[i];
820                 np->rx_ring[i].status = DescOwned;
821         }
822
823         np->cur_rx = 0;
824         np->dirty_rx = (unsigned int)(i - RX_RING_SIZE);
825
826         /* Initialize the Tx descriptors */
827         for (i = 0; i < TX_RING_SIZE; i++) {
828                 np->tx_skbuff[i] = NULL;
829                 np->tx_ring[i].status = 0;
830         }
831         np->tx_full = 0;
832         np->tx_q_bytes = np->dirty_tx = np->cur_tx = 0;
833
834         iowrite32(np->ring_dma_addr, np->base_addr + RxRingPtr);
835         iowrite32(np->ring_dma_addr+sizeof(struct w840_rx_desc)*RX_RING_SIZE,
836                 np->base_addr + TxRingPtr);
837
838 }
839
840 static void free_rxtx_rings(struct netdev_private* np)
841 {
842         int i;
843         /* Free all the skbuffs in the Rx queue. */
844         for (i = 0; i < RX_RING_SIZE; i++) {
845                 np->rx_ring[i].status = 0;
846                 if (np->rx_skbuff[i]) {
847                         pci_unmap_single(np->pci_dev,
848                                                 np->rx_addr[i],
849                                                 np->rx_skbuff[i]->len,
850                                                 PCI_DMA_FROMDEVICE);
851                         dev_kfree_skb(np->rx_skbuff[i]);
852                 }
853                 np->rx_skbuff[i] = NULL;
854         }
855         for (i = 0; i < TX_RING_SIZE; i++) {
856                 if (np->tx_skbuff[i]) {
857                         pci_unmap_single(np->pci_dev,
858                                                 np->tx_addr[i],
859                                                 np->tx_skbuff[i]->len,
860                                                 PCI_DMA_TODEVICE);
861                         dev_kfree_skb(np->tx_skbuff[i]);
862                 }
863                 np->tx_skbuff[i] = NULL;
864         }
865 }
866
867 static void init_registers(struct net_device *dev)
868 {
869         struct netdev_private *np = netdev_priv(dev);
870         void __iomem *ioaddr = np->base_addr;
871         int i;
872
873         for (i = 0; i < 6; i++)
874                 iowrite8(dev->dev_addr[i], ioaddr + StationAddr + i);
875
876         /* Initialize other registers. */
877 #ifdef __BIG_ENDIAN
878         i = (1<<20);    /* Big-endian descriptors */
879 #else
880         i = 0;
881 #endif
882         i |= (0x04<<2);         /* skip length 4 u32 */
883         i |= 0x02;              /* give Rx priority */
884
885         /* Configure the PCI bus bursts and FIFO thresholds.
886            486: Set 8 longword cache alignment, 8 longword burst.
887            586: Set 16 longword cache alignment, no burst limit.
888            Cache alignment bits 15:14        Burst length 13:8
889                 0000    <not allowed>           0000 align to cache     0800 8 longwords
890                 4000    8  longwords            0100 1 longword         1000 16 longwords
891                 8000    16 longwords            0200 2 longwords        2000 32 longwords
892                 C000    32  longwords           0400 4 longwords */
893
894 #if defined (__i386__) && !defined(MODULE)
895         /* When not a module we can work around broken '486 PCI boards. */
896         if (boot_cpu_data.x86 <= 4) {
897                 i |= 0x4800;
898                 printk(KERN_INFO "%s: This is a 386/486 PCI system, setting cache "
899                            "alignment to 8 longwords.\n", dev->name);
900         } else {
901                 i |= 0xE000;
902         }
903 #elif defined(__powerpc__) || defined(__i386__) || defined(__alpha__) || defined(__ia64__) || defined(__x86_64__)
904         i |= 0xE000;
905 #elif defined(__sparc__) || defined (CONFIG_PARISC)
906         i |= 0x4800;
907 #else
908 #warning Processor architecture undefined
909         i |= 0x4800;
910 #endif
911         iowrite32(i, ioaddr + PCIBusCfg);
912
913         np->csr6 = 0;
914         /* 128 byte Tx threshold;
915                 Transmit on; Receive on; */
916         update_csr6(dev, 0x00022002 | update_link(dev) | __set_rx_mode(dev));
917
918         /* Clear and Enable interrupts by setting the interrupt mask. */
919         iowrite32(0x1A0F5, ioaddr + IntrStatus);
920         iowrite32(0x1A0F5, ioaddr + IntrEnable);
921
922         iowrite32(0, ioaddr + RxStartDemand);
923 }
924
925 static void tx_timeout(struct net_device *dev)
926 {
927         struct netdev_private *np = netdev_priv(dev);
928         void __iomem *ioaddr = np->base_addr;
929
930         printk(KERN_WARNING "%s: Transmit timed out, status %8.8x,"
931                    " resetting...\n", dev->name, ioread32(ioaddr + IntrStatus));
932
933         {
934                 int i;
935                 printk(KERN_DEBUG "  Rx ring %p: ", np->rx_ring);
936                 for (i = 0; i < RX_RING_SIZE; i++)
937                         printk(" %8.8x", (unsigned int)np->rx_ring[i].status);
938                 printk("\n"KERN_DEBUG"  Tx ring %p: ", np->tx_ring);
939                 for (i = 0; i < TX_RING_SIZE; i++)
940                         printk(" %8.8x", np->tx_ring[i].status);
941                 printk("\n");
942         }
943         printk(KERN_DEBUG "Tx cur %d Tx dirty %d Tx Full %d, q bytes %d.\n",
944                                 np->cur_tx, np->dirty_tx, np->tx_full, np->tx_q_bytes);
945         printk(KERN_DEBUG "Tx Descriptor addr %xh.\n",ioread32(ioaddr+0x4C));
946
947         disable_irq(dev->irq);
948         spin_lock_irq(&np->lock);
949         /*
950          * Under high load dirty_tx and the internal tx descriptor pointer
951          * come out of sync, thus perform a software reset and reinitialize
952          * everything.
953          */
954
955         iowrite32(1, np->base_addr+PCIBusCfg);
956         udelay(1);
957
958         free_rxtx_rings(np);
959         init_rxtx_rings(dev);
960         init_registers(dev);
961         spin_unlock_irq(&np->lock);
962         enable_irq(dev->irq);
963
964         netif_wake_queue(dev);
965         dev->trans_start = jiffies;
966         np->stats.tx_errors++;
967         return;
968 }
969
970 /* Initialize the Rx and Tx rings, along with various 'dev' bits. */
971 static int alloc_ringdesc(struct net_device *dev)
972 {
973         struct netdev_private *np = netdev_priv(dev);
974
975         np->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
976
977         np->rx_ring = pci_alloc_consistent(np->pci_dev,
978                         sizeof(struct w840_rx_desc)*RX_RING_SIZE +
979                         sizeof(struct w840_tx_desc)*TX_RING_SIZE,
980                         &np->ring_dma_addr);
981         if(!np->rx_ring)
982                 return -ENOMEM;
983         init_rxtx_rings(dev);
984         return 0;
985 }
986
987 static void free_ringdesc(struct netdev_private *np)
988 {
989         pci_free_consistent(np->pci_dev,
990                         sizeof(struct w840_rx_desc)*RX_RING_SIZE +
991                         sizeof(struct w840_tx_desc)*TX_RING_SIZE,
992                         np->rx_ring, np->ring_dma_addr);
993
994 }
995
996 static int start_tx(struct sk_buff *skb, struct net_device *dev)
997 {
998         struct netdev_private *np = netdev_priv(dev);
999         unsigned entry;
1000
1001         /* Caution: the write order is important here, set the field
1002            with the "ownership" bits last. */
1003
1004         /* Calculate the next Tx descriptor entry. */
1005         entry = np->cur_tx % TX_RING_SIZE;
1006
1007         np->tx_addr[entry] = pci_map_single(np->pci_dev,
1008                                 skb->data,skb->len, PCI_DMA_TODEVICE);
1009         np->tx_skbuff[entry] = skb;
1010
1011         np->tx_ring[entry].buffer1 = np->tx_addr[entry];
1012         if (skb->len < TX_BUFLIMIT) {
1013                 np->tx_ring[entry].length = DescWholePkt | skb->len;
1014         } else {
1015                 int len = skb->len - TX_BUFLIMIT;
1016
1017                 np->tx_ring[entry].buffer2 = np->tx_addr[entry]+TX_BUFLIMIT;
1018                 np->tx_ring[entry].length = DescWholePkt | (len << 11) | TX_BUFLIMIT;
1019         }
1020         if(entry == TX_RING_SIZE-1)
1021                 np->tx_ring[entry].length |= DescEndRing;
1022
1023         /* Now acquire the irq spinlock.
1024          * The difficult race is the the ordering between
1025          * increasing np->cur_tx and setting DescOwned:
1026          * - if np->cur_tx is increased first the interrupt
1027          *   handler could consider the packet as transmitted
1028          *   since DescOwned is cleared.
1029          * - If DescOwned is set first the NIC could report the
1030          *   packet as sent, but the interrupt handler would ignore it
1031          *   since the np->cur_tx was not yet increased.
1032          */
1033         spin_lock_irq(&np->lock);
1034         np->cur_tx++;
1035
1036         wmb(); /* flush length, buffer1, buffer2 */
1037         np->tx_ring[entry].status = DescOwned;
1038         wmb(); /* flush status and kick the hardware */
1039         iowrite32(0, np->base_addr + TxStartDemand);
1040         np->tx_q_bytes += skb->len;
1041         /* Work around horrible bug in the chip by marking the queue as full
1042            when we do not have FIFO room for a maximum sized packet. */
1043         if (np->cur_tx - np->dirty_tx > TX_QUEUE_LEN ||
1044                 ((np->drv_flags & HasBrokenTx) && np->tx_q_bytes > TX_BUG_FIFO_LIMIT)) {
1045                 netif_stop_queue(dev);
1046                 wmb();
1047                 np->tx_full = 1;
1048         }
1049         spin_unlock_irq(&np->lock);
1050
1051         dev->trans_start = jiffies;
1052
1053         if (debug > 4) {
1054                 printk(KERN_DEBUG "%s: Transmit frame #%d queued in slot %d.\n",
1055                            dev->name, np->cur_tx, entry);
1056         }
1057         return 0;
1058 }
1059
1060 static void netdev_tx_done(struct net_device *dev)
1061 {
1062         struct netdev_private *np = netdev_priv(dev);
1063         for (; np->cur_tx - np->dirty_tx > 0; np->dirty_tx++) {
1064                 int entry = np->dirty_tx % TX_RING_SIZE;
1065                 int tx_status = np->tx_ring[entry].status;
1066
1067                 if (tx_status < 0)
1068                         break;
1069                 if (tx_status & 0x8000) {       /* There was an error, log it. */
1070 #ifndef final_version
1071                         if (debug > 1)
1072                                 printk(KERN_DEBUG "%s: Transmit error, Tx status %8.8x.\n",
1073                                            dev->name, tx_status);
1074 #endif
1075                         np->stats.tx_errors++;
1076                         if (tx_status & 0x0104) np->stats.tx_aborted_errors++;
1077                         if (tx_status & 0x0C80) np->stats.tx_carrier_errors++;
1078                         if (tx_status & 0x0200) np->stats.tx_window_errors++;
1079                         if (tx_status & 0x0002) np->stats.tx_fifo_errors++;
1080                         if ((tx_status & 0x0080) && np->mii_if.full_duplex == 0)
1081                                 np->stats.tx_heartbeat_errors++;
1082                 } else {
1083 #ifndef final_version
1084                         if (debug > 3)
1085                                 printk(KERN_DEBUG "%s: Transmit slot %d ok, Tx status %8.8x.\n",
1086                                            dev->name, entry, tx_status);
1087 #endif
1088                         np->stats.tx_bytes += np->tx_skbuff[entry]->len;
1089                         np->stats.collisions += (tx_status >> 3) & 15;
1090                         np->stats.tx_packets++;
1091                 }
1092                 /* Free the original skb. */
1093                 pci_unmap_single(np->pci_dev,np->tx_addr[entry],
1094                                         np->tx_skbuff[entry]->len,
1095                                         PCI_DMA_TODEVICE);
1096                 np->tx_q_bytes -= np->tx_skbuff[entry]->len;
1097                 dev_kfree_skb_irq(np->tx_skbuff[entry]);
1098                 np->tx_skbuff[entry] = NULL;
1099         }
1100         if (np->tx_full &&
1101                 np->cur_tx - np->dirty_tx < TX_QUEUE_LEN_RESTART &&
1102                 np->tx_q_bytes < TX_BUG_FIFO_LIMIT) {
1103                 /* The ring is no longer full, clear tbusy. */
1104                 np->tx_full = 0;
1105                 wmb();
1106                 netif_wake_queue(dev);
1107         }
1108 }
1109
1110 /* The interrupt handler does all of the Rx thread work and cleans up
1111    after the Tx thread. */
1112 static irqreturn_t intr_handler(int irq, void *dev_instance)
1113 {
1114         struct net_device *dev = (struct net_device *)dev_instance;
1115         struct netdev_private *np = netdev_priv(dev);
1116         void __iomem *ioaddr = np->base_addr;
1117         int work_limit = max_interrupt_work;
1118         int handled = 0;
1119
1120         if (!netif_device_present(dev))
1121                 return IRQ_NONE;
1122         do {
1123                 u32 intr_status = ioread32(ioaddr + IntrStatus);
1124
1125                 /* Acknowledge all of the current interrupt sources ASAP. */
1126                 iowrite32(intr_status & 0x001ffff, ioaddr + IntrStatus);
1127
1128                 if (debug > 4)
1129                         printk(KERN_DEBUG "%s: Interrupt, status %4.4x.\n",
1130                                    dev->name, intr_status);
1131
1132                 if ((intr_status & (NormalIntr|AbnormalIntr)) == 0)
1133                         break;
1134
1135                 handled = 1;
1136
1137                 if (intr_status & (RxIntr | RxNoBuf))
1138                         netdev_rx(dev);
1139                 if (intr_status & RxNoBuf)
1140                         iowrite32(0, ioaddr + RxStartDemand);
1141
1142                 if (intr_status & (TxNoBuf | TxIntr) &&
1143                         np->cur_tx != np->dirty_tx) {
1144                         spin_lock(&np->lock);
1145                         netdev_tx_done(dev);
1146                         spin_unlock(&np->lock);
1147                 }
1148
1149                 /* Abnormal error summary/uncommon events handlers. */
1150                 if (intr_status & (AbnormalIntr | TxFIFOUnderflow | SytemError |
1151                                                    TimerInt | TxDied))
1152                         netdev_error(dev, intr_status);
1153
1154                 if (--work_limit < 0) {
1155                         printk(KERN_WARNING "%s: Too much work at interrupt, "
1156                                    "status=0x%4.4x.\n", dev->name, intr_status);
1157                         /* Set the timer to re-enable the other interrupts after
1158                            10*82usec ticks. */
1159                         spin_lock(&np->lock);
1160                         if (netif_device_present(dev)) {
1161                                 iowrite32(AbnormalIntr | TimerInt, ioaddr + IntrEnable);
1162                                 iowrite32(10, ioaddr + GPTimer);
1163                         }
1164                         spin_unlock(&np->lock);
1165                         break;
1166                 }
1167         } while (1);
1168
1169         if (debug > 3)
1170                 printk(KERN_DEBUG "%s: exiting interrupt, status=%#4.4x.\n",
1171                            dev->name, ioread32(ioaddr + IntrStatus));
1172         return IRQ_RETVAL(handled);
1173 }
1174
1175 /* This routine is logically part of the interrupt handler, but separated
1176    for clarity and better register allocation. */
1177 static int netdev_rx(struct net_device *dev)
1178 {
1179         struct netdev_private *np = netdev_priv(dev);
1180         int entry = np->cur_rx % RX_RING_SIZE;
1181         int work_limit = np->dirty_rx + RX_RING_SIZE - np->cur_rx;
1182
1183         if (debug > 4) {
1184                 printk(KERN_DEBUG " In netdev_rx(), entry %d status %4.4x.\n",
1185                            entry, np->rx_ring[entry].status);
1186         }
1187
1188         /* If EOP is set on the next entry, it's a new packet. Send it up. */
1189         while (--work_limit >= 0) {
1190                 struct w840_rx_desc *desc = np->rx_head_desc;
1191                 s32 status = desc->status;
1192
1193                 if (debug > 4)
1194                         printk(KERN_DEBUG "  netdev_rx() status was %8.8x.\n",
1195                                    status);
1196                 if (status < 0)
1197                         break;
1198                 if ((status & 0x38008300) != 0x0300) {
1199                         if ((status & 0x38000300) != 0x0300) {
1200                                 /* Ingore earlier buffers. */
1201                                 if ((status & 0xffff) != 0x7fff) {
1202                                         printk(KERN_WARNING "%s: Oversized Ethernet frame spanned "
1203                                                    "multiple buffers, entry %#x status %4.4x!\n",
1204                                                    dev->name, np->cur_rx, status);
1205                                         np->stats.rx_length_errors++;
1206                                 }
1207                         } else if (status & 0x8000) {
1208                                 /* There was a fatal error. */
1209                                 if (debug > 2)
1210                                         printk(KERN_DEBUG "%s: Receive error, Rx status %8.8x.\n",
1211                                                    dev->name, status);
1212                                 np->stats.rx_errors++; /* end of a packet.*/
1213                                 if (status & 0x0890) np->stats.rx_length_errors++;
1214                                 if (status & 0x004C) np->stats.rx_frame_errors++;
1215                                 if (status & 0x0002) np->stats.rx_crc_errors++;
1216                         }
1217                 } else {
1218                         struct sk_buff *skb;
1219                         /* Omit the four octet CRC from the length. */
1220                         int pkt_len = ((status >> 16) & 0x7ff) - 4;
1221
1222 #ifndef final_version
1223                         if (debug > 4)
1224                                 printk(KERN_DEBUG "  netdev_rx() normal Rx pkt length %d"
1225                                            " status %x.\n", pkt_len, status);
1226 #endif
1227                         /* Check if the packet is long enough to accept without copying
1228                            to a minimally-sized skbuff. */
1229                         if (pkt_len < rx_copybreak
1230                                 && (skb = dev_alloc_skb(pkt_len + 2)) != NULL) {
1231                                 skb_reserve(skb, 2);    /* 16 byte align the IP header */
1232                                 pci_dma_sync_single_for_cpu(np->pci_dev,np->rx_addr[entry],
1233                                                             np->rx_skbuff[entry]->len,
1234                                                             PCI_DMA_FROMDEVICE);
1235                                 eth_copy_and_sum(skb, np->rx_skbuff[entry]->data, pkt_len, 0);
1236                                 skb_put(skb, pkt_len);
1237                                 pci_dma_sync_single_for_device(np->pci_dev,np->rx_addr[entry],
1238                                                                np->rx_skbuff[entry]->len,
1239                                                                PCI_DMA_FROMDEVICE);
1240                         } else {
1241                                 pci_unmap_single(np->pci_dev,np->rx_addr[entry],
1242                                                         np->rx_skbuff[entry]->len,
1243                                                         PCI_DMA_FROMDEVICE);
1244                                 skb_put(skb = np->rx_skbuff[entry], pkt_len);
1245                                 np->rx_skbuff[entry] = NULL;
1246                         }
1247 #ifndef final_version                           /* Remove after testing. */
1248                         /* You will want this info for the initial debug. */
1249                         if (debug > 5)
1250                                 printk(KERN_DEBUG "  Rx data %2.2x:%2.2x:%2.2x:%2.2x:%2.2x:"
1251                                            "%2.2x %2.2x:%2.2x:%2.2x:%2.2x:%2.2x:%2.2x %2.2x%2.2x "
1252                                            "%d.%d.%d.%d.\n",
1253                                            skb->data[0], skb->data[1], skb->data[2], skb->data[3],
1254                                            skb->data[4], skb->data[5], skb->data[6], skb->data[7],
1255                                            skb->data[8], skb->data[9], skb->data[10],
1256                                            skb->data[11], skb->data[12], skb->data[13],
1257                                            skb->data[14], skb->data[15], skb->data[16],
1258                                            skb->data[17]);
1259 #endif
1260                         skb->protocol = eth_type_trans(skb, dev);
1261                         netif_rx(skb);
1262                         dev->last_rx = jiffies;
1263                         np->stats.rx_packets++;
1264                         np->stats.rx_bytes += pkt_len;
1265                 }
1266                 entry = (++np->cur_rx) % RX_RING_SIZE;
1267                 np->rx_head_desc = &np->rx_ring[entry];
1268         }
1269
1270         /* Refill the Rx ring buffers. */
1271         for (; np->cur_rx - np->dirty_rx > 0; np->dirty_rx++) {
1272                 struct sk_buff *skb;
1273                 entry = np->dirty_rx % RX_RING_SIZE;
1274                 if (np->rx_skbuff[entry] == NULL) {
1275                         skb = dev_alloc_skb(np->rx_buf_sz);
1276                         np->rx_skbuff[entry] = skb;
1277                         if (skb == NULL)
1278                                 break;                  /* Better luck next round. */
1279                         np->rx_addr[entry] = pci_map_single(np->pci_dev,
1280                                                         skb->data,
1281                                                         np->rx_buf_sz, PCI_DMA_FROMDEVICE);
1282                         np->rx_ring[entry].buffer1 = np->rx_addr[entry];
1283                 }
1284                 wmb();
1285                 np->rx_ring[entry].status = DescOwned;
1286         }
1287
1288         return 0;
1289 }
1290
1291 static void netdev_error(struct net_device *dev, int intr_status)
1292 {
1293         struct netdev_private *np = netdev_priv(dev);
1294         void __iomem *ioaddr = np->base_addr;
1295
1296         if (debug > 2)
1297                 printk(KERN_DEBUG "%s: Abnormal event, %8.8x.\n",
1298                            dev->name, intr_status);
1299         if (intr_status == 0xffffffff)
1300                 return;
1301         spin_lock(&np->lock);
1302         if (intr_status & TxFIFOUnderflow) {
1303                 int new;
1304                 /* Bump up the Tx threshold */
1305 #if 0
1306                 /* This causes lots of dropped packets,
1307                  * and under high load even tx_timeouts
1308                  */
1309                 new = np->csr6 + 0x4000;
1310 #else
1311                 new = (np->csr6 >> 14)&0x7f;
1312                 if (new < 64)
1313                         new *= 2;
1314                  else
1315                         new = 127; /* load full packet before starting */
1316                 new = (np->csr6 & ~(0x7F << 14)) | (new<<14);
1317 #endif
1318                 printk(KERN_DEBUG "%s: Tx underflow, new csr6 %8.8x.\n",
1319                            dev->name, new);
1320                 update_csr6(dev, new);
1321         }
1322         if (intr_status & RxDied) {             /* Missed a Rx frame. */
1323                 np->stats.rx_errors++;
1324         }
1325         if (intr_status & TimerInt) {
1326                 /* Re-enable other interrupts. */
1327                 if (netif_device_present(dev))
1328                         iowrite32(0x1A0F5, ioaddr + IntrEnable);
1329         }
1330         np->stats.rx_missed_errors += ioread32(ioaddr + RxMissed) & 0xffff;
1331         iowrite32(0, ioaddr + RxStartDemand);
1332         spin_unlock(&np->lock);
1333 }
1334
1335 static struct net_device_stats *get_stats(struct net_device *dev)
1336 {
1337         struct netdev_private *np = netdev_priv(dev);
1338         void __iomem *ioaddr = np->base_addr;
1339
1340         /* The chip only need report frame silently dropped. */
1341         spin_lock_irq(&np->lock);
1342         if (netif_running(dev) && netif_device_present(dev))
1343                 np->stats.rx_missed_errors += ioread32(ioaddr + RxMissed) & 0xffff;
1344         spin_unlock_irq(&np->lock);
1345
1346         return &np->stats;
1347 }
1348
1349
1350 static u32 __set_rx_mode(struct net_device *dev)
1351 {
1352         struct netdev_private *np = netdev_priv(dev);
1353         void __iomem *ioaddr = np->base_addr;
1354         u32 mc_filter[2];                       /* Multicast hash filter */
1355         u32 rx_mode;
1356
1357         if (dev->flags & IFF_PROMISC) {                 /* Set promiscuous. */
1358                 memset(mc_filter, 0xff, sizeof(mc_filter));
1359                 rx_mode = RxAcceptBroadcast | AcceptMulticast | RxAcceptAllPhys
1360                         | AcceptMyPhys;
1361         } else if ((dev->mc_count > multicast_filter_limit)
1362                            ||  (dev->flags & IFF_ALLMULTI)) {
1363                 /* Too many to match, or accept all multicasts. */
1364                 memset(mc_filter, 0xff, sizeof(mc_filter));
1365                 rx_mode = RxAcceptBroadcast | AcceptMulticast | AcceptMyPhys;
1366         } else {
1367                 struct dev_mc_list *mclist;
1368                 int i;
1369                 memset(mc_filter, 0, sizeof(mc_filter));
1370                 for (i = 0, mclist = dev->mc_list; mclist && i < dev->mc_count;
1371                          i++, mclist = mclist->next) {
1372                         int filterbit = (ether_crc(ETH_ALEN, mclist->dmi_addr) >> 26) ^ 0x3F;
1373                         filterbit &= 0x3f;
1374                         mc_filter[filterbit >> 5] |= 1 << (filterbit & 31);
1375                 }
1376                 rx_mode = RxAcceptBroadcast | AcceptMulticast | AcceptMyPhys;
1377         }
1378         iowrite32(mc_filter[0], ioaddr + MulticastFilter0);
1379         iowrite32(mc_filter[1], ioaddr + MulticastFilter1);
1380         return rx_mode;
1381 }
1382
1383 static void set_rx_mode(struct net_device *dev)
1384 {
1385         struct netdev_private *np = netdev_priv(dev);
1386         u32 rx_mode = __set_rx_mode(dev);
1387         spin_lock_irq(&np->lock);
1388         update_csr6(dev, (np->csr6 & ~0x00F8) | rx_mode);
1389         spin_unlock_irq(&np->lock);
1390 }
1391
1392 static void netdev_get_drvinfo (struct net_device *dev, struct ethtool_drvinfo *info)
1393 {
1394         struct netdev_private *np = netdev_priv(dev);
1395
1396         strcpy (info->driver, DRV_NAME);
1397         strcpy (info->version, DRV_VERSION);
1398         strcpy (info->bus_info, pci_name(np->pci_dev));
1399 }
1400
1401 static int netdev_get_settings(struct net_device *dev, struct ethtool_cmd *cmd)
1402 {
1403         struct netdev_private *np = netdev_priv(dev);
1404         int rc;
1405
1406         spin_lock_irq(&np->lock);
1407         rc = mii_ethtool_gset(&np->mii_if, cmd);
1408         spin_unlock_irq(&np->lock);
1409
1410         return rc;
1411 }
1412
1413 static int netdev_set_settings(struct net_device *dev, struct ethtool_cmd *cmd)
1414 {
1415         struct netdev_private *np = netdev_priv(dev);
1416         int rc;
1417
1418         spin_lock_irq(&np->lock);
1419         rc = mii_ethtool_sset(&np->mii_if, cmd);
1420         spin_unlock_irq(&np->lock);
1421
1422         return rc;
1423 }
1424
1425 static int netdev_nway_reset(struct net_device *dev)
1426 {
1427         struct netdev_private *np = netdev_priv(dev);
1428         return mii_nway_restart(&np->mii_if);
1429 }
1430
1431 static u32 netdev_get_link(struct net_device *dev)
1432 {
1433         struct netdev_private *np = netdev_priv(dev);
1434         return mii_link_ok(&np->mii_if);
1435 }
1436
1437 static u32 netdev_get_msglevel(struct net_device *dev)
1438 {
1439         return debug;
1440 }
1441
1442 static void netdev_set_msglevel(struct net_device *dev, u32 value)
1443 {
1444         debug = value;
1445 }
1446
1447 static const struct ethtool_ops netdev_ethtool_ops = {
1448         .get_drvinfo            = netdev_get_drvinfo,
1449         .get_settings           = netdev_get_settings,
1450         .set_settings           = netdev_set_settings,
1451         .nway_reset             = netdev_nway_reset,
1452         .get_link               = netdev_get_link,
1453         .get_msglevel           = netdev_get_msglevel,
1454         .set_msglevel           = netdev_set_msglevel,
1455         .get_sg                 = ethtool_op_get_sg,
1456         .get_tx_csum            = ethtool_op_get_tx_csum,
1457 };
1458
1459 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
1460 {
1461         struct mii_ioctl_data *data = if_mii(rq);
1462         struct netdev_private *np = netdev_priv(dev);
1463
1464         switch(cmd) {
1465         case SIOCGMIIPHY:               /* Get address of MII PHY in use. */
1466                 data->phy_id = ((struct netdev_private *)netdev_priv(dev))->phys[0] & 0x1f;
1467                 /* Fall Through */
1468
1469         case SIOCGMIIREG:               /* Read MII PHY register. */
1470                 spin_lock_irq(&np->lock);
1471                 data->val_out = mdio_read(dev, data->phy_id & 0x1f, data->reg_num & 0x1f);
1472                 spin_unlock_irq(&np->lock);
1473                 return 0;
1474
1475         case SIOCSMIIREG:               /* Write MII PHY register. */
1476                 if (!capable(CAP_NET_ADMIN))
1477                         return -EPERM;
1478                 spin_lock_irq(&np->lock);
1479                 mdio_write(dev, data->phy_id & 0x1f, data->reg_num & 0x1f, data->val_in);
1480                 spin_unlock_irq(&np->lock);
1481                 return 0;
1482         default:
1483                 return -EOPNOTSUPP;
1484         }
1485 }
1486
1487 static int netdev_close(struct net_device *dev)
1488 {
1489         struct netdev_private *np = netdev_priv(dev);
1490         void __iomem *ioaddr = np->base_addr;
1491
1492         netif_stop_queue(dev);
1493
1494         if (debug > 1) {
1495                 printk(KERN_DEBUG "%s: Shutting down ethercard, status was %8.8x "
1496                            "Config %8.8x.\n", dev->name, ioread32(ioaddr + IntrStatus),
1497                            ioread32(ioaddr + NetworkConfig));
1498                 printk(KERN_DEBUG "%s: Queue pointers were Tx %d / %d,  Rx %d / %d.\n",
1499                            dev->name, np->cur_tx, np->dirty_tx, np->cur_rx, np->dirty_rx);
1500         }
1501
1502         /* Stop the chip's Tx and Rx processes. */
1503         spin_lock_irq(&np->lock);
1504         netif_device_detach(dev);
1505         update_csr6(dev, 0);
1506         iowrite32(0x0000, ioaddr + IntrEnable);
1507         spin_unlock_irq(&np->lock);
1508
1509         free_irq(dev->irq, dev);
1510         wmb();
1511         netif_device_attach(dev);
1512
1513         if (ioread32(ioaddr + NetworkConfig) != 0xffffffff)
1514                 np->stats.rx_missed_errors += ioread32(ioaddr + RxMissed) & 0xffff;
1515
1516 #ifdef __i386__
1517         if (debug > 2) {
1518                 int i;
1519
1520                 printk(KERN_DEBUG"  Tx ring at %8.8x:\n",
1521                            (int)np->tx_ring);
1522                 for (i = 0; i < TX_RING_SIZE; i++)
1523                         printk(KERN_DEBUG " #%d desc. %4.4x %4.4x %8.8x.\n",
1524                                    i, np->tx_ring[i].length,
1525                                    np->tx_ring[i].status, np->tx_ring[i].buffer1);
1526                 printk("\n"KERN_DEBUG "  Rx ring %8.8x:\n",
1527                            (int)np->rx_ring);
1528                 for (i = 0; i < RX_RING_SIZE; i++) {
1529                         printk(KERN_DEBUG " #%d desc. %4.4x %4.4x %8.8x\n",
1530                                    i, np->rx_ring[i].length,
1531                                    np->rx_ring[i].status, np->rx_ring[i].buffer1);
1532                 }
1533         }
1534 #endif /* __i386__ debugging only */
1535
1536         del_timer_sync(&np->timer);
1537
1538         free_rxtx_rings(np);
1539         free_ringdesc(np);
1540
1541         return 0;
1542 }
1543
1544 static void __devexit w840_remove1 (struct pci_dev *pdev)
1545 {
1546         struct net_device *dev = pci_get_drvdata(pdev);
1547
1548         if (dev) {
1549                 struct netdev_private *np = netdev_priv(dev);
1550                 unregister_netdev(dev);
1551                 pci_release_regions(pdev);
1552                 pci_iounmap(pdev, np->base_addr);
1553                 free_netdev(dev);
1554         }
1555
1556         pci_set_drvdata(pdev, NULL);
1557 }
1558
1559 #ifdef CONFIG_PM
1560
1561 /*
1562  * suspend/resume synchronization:
1563  * - open, close, do_ioctl:
1564  *      rtnl_lock, & netif_device_detach after the rtnl_unlock.
1565  * - get_stats:
1566  *      spin_lock_irq(np->lock), doesn't touch hw if not present
1567  * - hard_start_xmit:
1568  *      synchronize_irq + netif_tx_disable;
1569  * - tx_timeout:
1570  *      netif_device_detach + netif_tx_disable;
1571  * - set_multicast_list
1572  *      netif_device_detach + netif_tx_disable;
1573  * - interrupt handler
1574  *      doesn't touch hw if not present, synchronize_irq waits for
1575  *      running instances of the interrupt handler.
1576  *
1577  * Disabling hw requires clearing csr6 & IntrEnable.
1578  * update_csr6 & all function that write IntrEnable check netif_device_present
1579  * before settings any bits.
1580  *
1581  * Detach must occur under spin_unlock_irq(), interrupts from a detached
1582  * device would cause an irq storm.
1583  */
1584 static int w840_suspend (struct pci_dev *pdev, pm_message_t state)
1585 {
1586         struct net_device *dev = pci_get_drvdata (pdev);
1587         struct netdev_private *np = netdev_priv(dev);
1588         void __iomem *ioaddr = np->base_addr;
1589
1590         rtnl_lock();
1591         if (netif_running (dev)) {
1592                 del_timer_sync(&np->timer);
1593
1594                 spin_lock_irq(&np->lock);
1595                 netif_device_detach(dev);
1596                 update_csr6(dev, 0);
1597                 iowrite32(0, ioaddr + IntrEnable);
1598                 spin_unlock_irq(&np->lock);
1599
1600                 synchronize_irq(dev->irq);
1601                 netif_tx_disable(dev);
1602
1603                 np->stats.rx_missed_errors += ioread32(ioaddr + RxMissed) & 0xffff;
1604
1605                 /* no more hardware accesses behind this line. */
1606
1607                 BUG_ON(np->csr6);
1608                 if (ioread32(ioaddr + IntrEnable)) BUG();
1609
1610                 /* pci_power_off(pdev, -1); */
1611
1612                 free_rxtx_rings(np);
1613         } else {
1614                 netif_device_detach(dev);
1615         }
1616         rtnl_unlock();
1617         return 0;
1618 }
1619
1620 static int w840_resume (struct pci_dev *pdev)
1621 {
1622         struct net_device *dev = pci_get_drvdata (pdev);
1623         struct netdev_private *np = netdev_priv(dev);
1624         int retval = 0;
1625
1626         rtnl_lock();
1627         if (netif_device_present(dev))
1628                 goto out; /* device not suspended */
1629         if (netif_running(dev)) {
1630                 if ((retval = pci_enable_device(pdev))) {
1631                         printk (KERN_ERR
1632                                 "%s: pci_enable_device failed in resume\n",
1633                                 dev->name);
1634                         goto out;
1635                 }
1636                 spin_lock_irq(&np->lock);
1637                 iowrite32(1, np->base_addr+PCIBusCfg);
1638                 ioread32(np->base_addr+PCIBusCfg);
1639                 udelay(1);
1640                 netif_device_attach(dev);
1641                 init_rxtx_rings(dev);
1642                 init_registers(dev);
1643                 spin_unlock_irq(&np->lock);
1644
1645                 netif_wake_queue(dev);
1646
1647                 mod_timer(&np->timer, jiffies + 1*HZ);
1648         } else {
1649                 netif_device_attach(dev);
1650         }
1651 out:
1652         rtnl_unlock();
1653         return retval;
1654 }
1655 #endif
1656
1657 static struct pci_driver w840_driver = {
1658         .name           = DRV_NAME,
1659         .id_table       = w840_pci_tbl,
1660         .probe          = w840_probe1,
1661         .remove         = __devexit_p(w840_remove1),
1662 #ifdef CONFIG_PM
1663         .suspend        = w840_suspend,
1664         .resume         = w840_resume,
1665 #endif
1666 };
1667
1668 static int __init w840_init(void)
1669 {
1670         printk(version);
1671         return pci_register_driver(&w840_driver);
1672 }
1673
1674 static void __exit w840_exit(void)
1675 {
1676         pci_unregister_driver(&w840_driver);
1677 }
1678
1679 module_init(w840_init);
1680 module_exit(w840_exit);