Automatic merge of rsync://rsync.kernel.org/pub/scm/linux/kernel/git/aegl/linux-2.6
[pandora-kernel.git] / drivers / scsi / libata-core.c
1 /*
2    libata-core.c - helper library for ATA
3
4    Copyright 2003-2004 Red Hat, Inc.  All rights reserved.
5    Copyright 2003-2004 Jeff Garzik
6
7    The contents of this file are subject to the Open
8    Software License version 1.1 that can be found at
9    http://www.opensource.org/licenses/osl-1.1.txt and is included herein
10    by reference.
11
12    Alternatively, the contents of this file may be used under the terms
13    of the GNU General Public License version 2 (the "GPL") as distributed
14    in the kernel source COPYING file, in which case the provisions of
15    the GPL are applicable instead of the above.  If you wish to allow
16    the use of your version of this file only under the terms of the
17    GPL and not to allow others to use your version of this file under
18    the OSL, indicate your decision by deleting the provisions above and
19    replace them with the notice and other provisions required by the GPL.
20    If you do not delete the provisions above, a recipient may use your
21    version of this file under either the OSL or the GPL.
22
23  */
24
25 #include <linux/config.h>
26 #include <linux/kernel.h>
27 #include <linux/module.h>
28 #include <linux/pci.h>
29 #include <linux/init.h>
30 #include <linux/list.h>
31 #include <linux/mm.h>
32 #include <linux/highmem.h>
33 #include <linux/spinlock.h>
34 #include <linux/blkdev.h>
35 #include <linux/delay.h>
36 #include <linux/timer.h>
37 #include <linux/interrupt.h>
38 #include <linux/completion.h>
39 #include <linux/suspend.h>
40 #include <linux/workqueue.h>
41 #include <scsi/scsi.h>
42 #include "scsi.h"
43 #include "scsi_priv.h"
44 #include <scsi/scsi_host.h>
45 #include <linux/libata.h>
46 #include <asm/io.h>
47 #include <asm/semaphore.h>
48 #include <asm/byteorder.h>
49
50 #include "libata.h"
51
52 static unsigned int ata_busy_sleep (struct ata_port *ap,
53                                     unsigned long tmout_pat,
54                                     unsigned long tmout);
55 static void ata_set_mode(struct ata_port *ap);
56 static void ata_dev_set_xfermode(struct ata_port *ap, struct ata_device *dev);
57 static unsigned int ata_get_mode_mask(struct ata_port *ap, int shift);
58 static int fgb(u32 bitmap);
59 static int ata_choose_xfer_mode(struct ata_port *ap,
60                                 u8 *xfer_mode_out,
61                                 unsigned int *xfer_shift_out);
62 static int ata_qc_complete_noop(struct ata_queued_cmd *qc, u8 drv_stat);
63 static void __ata_qc_complete(struct ata_queued_cmd *qc);
64
65 static unsigned int ata_unique_id = 1;
66 static struct workqueue_struct *ata_wq;
67
68 MODULE_AUTHOR("Jeff Garzik");
69 MODULE_DESCRIPTION("Library module for ATA devices");
70 MODULE_LICENSE("GPL");
71 MODULE_VERSION(DRV_VERSION);
72
73 /**
74  *      ata_tf_load - send taskfile registers to host controller
75  *      @ap: Port to which output is sent
76  *      @tf: ATA taskfile register set
77  *
78  *      Outputs ATA taskfile to standard ATA host controller.
79  *
80  *      LOCKING:
81  *      Inherited from caller.
82  */
83
84 static void ata_tf_load_pio(struct ata_port *ap, struct ata_taskfile *tf)
85 {
86         struct ata_ioports *ioaddr = &ap->ioaddr;
87         unsigned int is_addr = tf->flags & ATA_TFLAG_ISADDR;
88
89         if (tf->ctl != ap->last_ctl) {
90                 outb(tf->ctl, ioaddr->ctl_addr);
91                 ap->last_ctl = tf->ctl;
92                 ata_wait_idle(ap);
93         }
94
95         if (is_addr && (tf->flags & ATA_TFLAG_LBA48)) {
96                 outb(tf->hob_feature, ioaddr->feature_addr);
97                 outb(tf->hob_nsect, ioaddr->nsect_addr);
98                 outb(tf->hob_lbal, ioaddr->lbal_addr);
99                 outb(tf->hob_lbam, ioaddr->lbam_addr);
100                 outb(tf->hob_lbah, ioaddr->lbah_addr);
101                 VPRINTK("hob: feat 0x%X nsect 0x%X, lba 0x%X 0x%X 0x%X\n",
102                         tf->hob_feature,
103                         tf->hob_nsect,
104                         tf->hob_lbal,
105                         tf->hob_lbam,
106                         tf->hob_lbah);
107         }
108
109         if (is_addr) {
110                 outb(tf->feature, ioaddr->feature_addr);
111                 outb(tf->nsect, ioaddr->nsect_addr);
112                 outb(tf->lbal, ioaddr->lbal_addr);
113                 outb(tf->lbam, ioaddr->lbam_addr);
114                 outb(tf->lbah, ioaddr->lbah_addr);
115                 VPRINTK("feat 0x%X nsect 0x%X lba 0x%X 0x%X 0x%X\n",
116                         tf->feature,
117                         tf->nsect,
118                         tf->lbal,
119                         tf->lbam,
120                         tf->lbah);
121         }
122
123         if (tf->flags & ATA_TFLAG_DEVICE) {
124                 outb(tf->device, ioaddr->device_addr);
125                 VPRINTK("device 0x%X\n", tf->device);
126         }
127
128         ata_wait_idle(ap);
129 }
130
131 /**
132  *      ata_tf_load_mmio - send taskfile registers to host controller
133  *      @ap: Port to which output is sent
134  *      @tf: ATA taskfile register set
135  *
136  *      Outputs ATA taskfile to standard ATA host controller using MMIO.
137  *
138  *      LOCKING:
139  *      Inherited from caller.
140  */
141
142 static void ata_tf_load_mmio(struct ata_port *ap, struct ata_taskfile *tf)
143 {
144         struct ata_ioports *ioaddr = &ap->ioaddr;
145         unsigned int is_addr = tf->flags & ATA_TFLAG_ISADDR;
146
147         if (tf->ctl != ap->last_ctl) {
148                 writeb(tf->ctl, (void __iomem *) ap->ioaddr.ctl_addr);
149                 ap->last_ctl = tf->ctl;
150                 ata_wait_idle(ap);
151         }
152
153         if (is_addr && (tf->flags & ATA_TFLAG_LBA48)) {
154                 writeb(tf->hob_feature, (void __iomem *) ioaddr->feature_addr);
155                 writeb(tf->hob_nsect, (void __iomem *) ioaddr->nsect_addr);
156                 writeb(tf->hob_lbal, (void __iomem *) ioaddr->lbal_addr);
157                 writeb(tf->hob_lbam, (void __iomem *) ioaddr->lbam_addr);
158                 writeb(tf->hob_lbah, (void __iomem *) ioaddr->lbah_addr);
159                 VPRINTK("hob: feat 0x%X nsect 0x%X, lba 0x%X 0x%X 0x%X\n",
160                         tf->hob_feature,
161                         tf->hob_nsect,
162                         tf->hob_lbal,
163                         tf->hob_lbam,
164                         tf->hob_lbah);
165         }
166
167         if (is_addr) {
168                 writeb(tf->feature, (void __iomem *) ioaddr->feature_addr);
169                 writeb(tf->nsect, (void __iomem *) ioaddr->nsect_addr);
170                 writeb(tf->lbal, (void __iomem *) ioaddr->lbal_addr);
171                 writeb(tf->lbam, (void __iomem *) ioaddr->lbam_addr);
172                 writeb(tf->lbah, (void __iomem *) ioaddr->lbah_addr);
173                 VPRINTK("feat 0x%X nsect 0x%X lba 0x%X 0x%X 0x%X\n",
174                         tf->feature,
175                         tf->nsect,
176                         tf->lbal,
177                         tf->lbam,
178                         tf->lbah);
179         }
180
181         if (tf->flags & ATA_TFLAG_DEVICE) {
182                 writeb(tf->device, (void __iomem *) ioaddr->device_addr);
183                 VPRINTK("device 0x%X\n", tf->device);
184         }
185
186         ata_wait_idle(ap);
187 }
188
189 void ata_tf_load(struct ata_port *ap, struct ata_taskfile *tf)
190 {
191         if (ap->flags & ATA_FLAG_MMIO)
192                 ata_tf_load_mmio(ap, tf);
193         else
194                 ata_tf_load_pio(ap, tf);
195 }
196
197 /**
198  *      ata_exec_command - issue ATA command to host controller
199  *      @ap: port to which command is being issued
200  *      @tf: ATA taskfile register set
201  *
202  *      Issues PIO/MMIO write to ATA command register, with proper
203  *      synchronization with interrupt handler / other threads.
204  *
205  *      LOCKING:
206  *      spin_lock_irqsave(host_set lock)
207  */
208
209 static void ata_exec_command_pio(struct ata_port *ap, struct ata_taskfile *tf)
210 {
211         DPRINTK("ata%u: cmd 0x%X\n", ap->id, tf->command);
212
213         outb(tf->command, ap->ioaddr.command_addr);
214         ata_pause(ap);
215 }
216
217
218 /**
219  *      ata_exec_command_mmio - issue ATA command to host controller
220  *      @ap: port to which command is being issued
221  *      @tf: ATA taskfile register set
222  *
223  *      Issues MMIO write to ATA command register, with proper
224  *      synchronization with interrupt handler / other threads.
225  *
226  *      LOCKING:
227  *      spin_lock_irqsave(host_set lock)
228  */
229
230 static void ata_exec_command_mmio(struct ata_port *ap, struct ata_taskfile *tf)
231 {
232         DPRINTK("ata%u: cmd 0x%X\n", ap->id, tf->command);
233
234         writeb(tf->command, (void __iomem *) ap->ioaddr.command_addr);
235         ata_pause(ap);
236 }
237
238 void ata_exec_command(struct ata_port *ap, struct ata_taskfile *tf)
239 {
240         if (ap->flags & ATA_FLAG_MMIO)
241                 ata_exec_command_mmio(ap, tf);
242         else
243                 ata_exec_command_pio(ap, tf);
244 }
245
246 /**
247  *      ata_exec - issue ATA command to host controller
248  *      @ap: port to which command is being issued
249  *      @tf: ATA taskfile register set
250  *
251  *      Issues PIO/MMIO write to ATA command register, with proper
252  *      synchronization with interrupt handler / other threads.
253  *
254  *      LOCKING:
255  *      Obtains host_set lock.
256  */
257
258 static inline void ata_exec(struct ata_port *ap, struct ata_taskfile *tf)
259 {
260         unsigned long flags;
261
262         DPRINTK("ata%u: cmd 0x%X\n", ap->id, tf->command);
263         spin_lock_irqsave(&ap->host_set->lock, flags);
264         ap->ops->exec_command(ap, tf);
265         spin_unlock_irqrestore(&ap->host_set->lock, flags);
266 }
267
268 /**
269  *      ata_tf_to_host - issue ATA taskfile to host controller
270  *      @ap: port to which command is being issued
271  *      @tf: ATA taskfile register set
272  *
273  *      Issues ATA taskfile register set to ATA host controller,
274  *      with proper synchronization with interrupt handler and
275  *      other threads.
276  *
277  *      LOCKING:
278  *      Obtains host_set lock.
279  */
280
281 static void ata_tf_to_host(struct ata_port *ap, struct ata_taskfile *tf)
282 {
283         ap->ops->tf_load(ap, tf);
284
285         ata_exec(ap, tf);
286 }
287
288 /**
289  *      ata_tf_to_host_nolock - issue ATA taskfile to host controller
290  *      @ap: port to which command is being issued
291  *      @tf: ATA taskfile register set
292  *
293  *      Issues ATA taskfile register set to ATA host controller,
294  *      with proper synchronization with interrupt handler and
295  *      other threads.
296  *
297  *      LOCKING:
298  *      spin_lock_irqsave(host_set lock)
299  */
300
301 void ata_tf_to_host_nolock(struct ata_port *ap, struct ata_taskfile *tf)
302 {
303         ap->ops->tf_load(ap, tf);
304         ap->ops->exec_command(ap, tf);
305 }
306
307 /**
308  *      ata_tf_read - input device's ATA taskfile shadow registers
309  *      @ap: Port from which input is read
310  *      @tf: ATA taskfile register set for storing input
311  *
312  *      Reads ATA taskfile registers for currently-selected device
313  *      into @tf.
314  *
315  *      LOCKING:
316  *      Inherited from caller.
317  */
318
319 static void ata_tf_read_pio(struct ata_port *ap, struct ata_taskfile *tf)
320 {
321         struct ata_ioports *ioaddr = &ap->ioaddr;
322
323         tf->nsect = inb(ioaddr->nsect_addr);
324         tf->lbal = inb(ioaddr->lbal_addr);
325         tf->lbam = inb(ioaddr->lbam_addr);
326         tf->lbah = inb(ioaddr->lbah_addr);
327         tf->device = inb(ioaddr->device_addr);
328
329         if (tf->flags & ATA_TFLAG_LBA48) {
330                 outb(tf->ctl | ATA_HOB, ioaddr->ctl_addr);
331                 tf->hob_feature = inb(ioaddr->error_addr);
332                 tf->hob_nsect = inb(ioaddr->nsect_addr);
333                 tf->hob_lbal = inb(ioaddr->lbal_addr);
334                 tf->hob_lbam = inb(ioaddr->lbam_addr);
335                 tf->hob_lbah = inb(ioaddr->lbah_addr);
336         }
337 }
338
339 /**
340  *      ata_tf_read_mmio - input device's ATA taskfile shadow registers
341  *      @ap: Port from which input is read
342  *      @tf: ATA taskfile register set for storing input
343  *
344  *      Reads ATA taskfile registers for currently-selected device
345  *      into @tf via MMIO.
346  *
347  *      LOCKING:
348  *      Inherited from caller.
349  */
350
351 static void ata_tf_read_mmio(struct ata_port *ap, struct ata_taskfile *tf)
352 {
353         struct ata_ioports *ioaddr = &ap->ioaddr;
354
355         tf->nsect = readb((void __iomem *)ioaddr->nsect_addr);
356         tf->lbal = readb((void __iomem *)ioaddr->lbal_addr);
357         tf->lbam = readb((void __iomem *)ioaddr->lbam_addr);
358         tf->lbah = readb((void __iomem *)ioaddr->lbah_addr);
359         tf->device = readb((void __iomem *)ioaddr->device_addr);
360
361         if (tf->flags & ATA_TFLAG_LBA48) {
362                 writeb(tf->ctl | ATA_HOB, (void __iomem *) ap->ioaddr.ctl_addr);
363                 tf->hob_feature = readb((void __iomem *)ioaddr->error_addr);
364                 tf->hob_nsect = readb((void __iomem *)ioaddr->nsect_addr);
365                 tf->hob_lbal = readb((void __iomem *)ioaddr->lbal_addr);
366                 tf->hob_lbam = readb((void __iomem *)ioaddr->lbam_addr);
367                 tf->hob_lbah = readb((void __iomem *)ioaddr->lbah_addr);
368         }
369 }
370
371 void ata_tf_read(struct ata_port *ap, struct ata_taskfile *tf)
372 {
373         if (ap->flags & ATA_FLAG_MMIO)
374                 ata_tf_read_mmio(ap, tf);
375         else
376                 ata_tf_read_pio(ap, tf);
377 }
378
379 /**
380  *      ata_check_status_pio - Read device status reg & clear interrupt
381  *      @ap: port where the device is
382  *
383  *      Reads ATA taskfile status register for currently-selected device
384  *      and return it's value. This also clears pending interrupts
385  *      from this device
386  *
387  *      LOCKING:
388  *      Inherited from caller.
389  */
390 static u8 ata_check_status_pio(struct ata_port *ap)
391 {
392         return inb(ap->ioaddr.status_addr);
393 }
394
395 /**
396  *      ata_check_status_mmio - Read device status reg & clear interrupt
397  *      @ap: port where the device is
398  *
399  *      Reads ATA taskfile status register for currently-selected device
400  *      via MMIO and return it's value. This also clears pending interrupts
401  *      from this device
402  *
403  *      LOCKING:
404  *      Inherited from caller.
405  */
406 static u8 ata_check_status_mmio(struct ata_port *ap)
407 {
408         return readb((void __iomem *) ap->ioaddr.status_addr);
409 }
410
411 u8 ata_check_status(struct ata_port *ap)
412 {
413         if (ap->flags & ATA_FLAG_MMIO)
414                 return ata_check_status_mmio(ap);
415         return ata_check_status_pio(ap);
416 }
417
418 u8 ata_altstatus(struct ata_port *ap)
419 {
420         if (ap->ops->check_altstatus)
421                 return ap->ops->check_altstatus(ap);
422
423         if (ap->flags & ATA_FLAG_MMIO)
424                 return readb((void __iomem *)ap->ioaddr.altstatus_addr);
425         return inb(ap->ioaddr.altstatus_addr);
426 }
427
428 u8 ata_chk_err(struct ata_port *ap)
429 {
430         if (ap->ops->check_err)
431                 return ap->ops->check_err(ap);
432
433         if (ap->flags & ATA_FLAG_MMIO) {
434                 return readb((void __iomem *) ap->ioaddr.error_addr);
435         }
436         return inb(ap->ioaddr.error_addr);
437 }
438
439 /**
440  *      ata_tf_to_fis - Convert ATA taskfile to SATA FIS structure
441  *      @tf: Taskfile to convert
442  *      @fis: Buffer into which data will output
443  *      @pmp: Port multiplier port
444  *
445  *      Converts a standard ATA taskfile to a Serial ATA
446  *      FIS structure (Register - Host to Device).
447  *
448  *      LOCKING:
449  *      Inherited from caller.
450  */
451
452 void ata_tf_to_fis(struct ata_taskfile *tf, u8 *fis, u8 pmp)
453 {
454         fis[0] = 0x27;  /* Register - Host to Device FIS */
455         fis[1] = (pmp & 0xf) | (1 << 7); /* Port multiplier number,
456                                             bit 7 indicates Command FIS */
457         fis[2] = tf->command;
458         fis[3] = tf->feature;
459
460         fis[4] = tf->lbal;
461         fis[5] = tf->lbam;
462         fis[6] = tf->lbah;
463         fis[7] = tf->device;
464
465         fis[8] = tf->hob_lbal;
466         fis[9] = tf->hob_lbam;
467         fis[10] = tf->hob_lbah;
468         fis[11] = tf->hob_feature;
469
470         fis[12] = tf->nsect;
471         fis[13] = tf->hob_nsect;
472         fis[14] = 0;
473         fis[15] = tf->ctl;
474
475         fis[16] = 0;
476         fis[17] = 0;
477         fis[18] = 0;
478         fis[19] = 0;
479 }
480
481 /**
482  *      ata_tf_from_fis - Convert SATA FIS to ATA taskfile
483  *      @fis: Buffer from which data will be input
484  *      @tf: Taskfile to output
485  *
486  *      Converts a standard ATA taskfile to a Serial ATA
487  *      FIS structure (Register - Host to Device).
488  *
489  *      LOCKING:
490  *      Inherited from caller.
491  */
492
493 void ata_tf_from_fis(u8 *fis, struct ata_taskfile *tf)
494 {
495         tf->command     = fis[2];       /* status */
496         tf->feature     = fis[3];       /* error */
497
498         tf->lbal        = fis[4];
499         tf->lbam        = fis[5];
500         tf->lbah        = fis[6];
501         tf->device      = fis[7];
502
503         tf->hob_lbal    = fis[8];
504         tf->hob_lbam    = fis[9];
505         tf->hob_lbah    = fis[10];
506
507         tf->nsect       = fis[12];
508         tf->hob_nsect   = fis[13];
509 }
510
511 /**
512  *      ata_prot_to_cmd - determine which read/write opcodes to use
513  *      @protocol: ATA_PROT_xxx taskfile protocol
514  *      @lba48: true is lba48 is present
515  *
516  *      Given necessary input, determine which read/write commands
517  *      to use to transfer data.
518  *
519  *      LOCKING:
520  *      None.
521  */
522 static int ata_prot_to_cmd(int protocol, int lba48)
523 {
524         int rcmd = 0, wcmd = 0;
525
526         switch (protocol) {
527         case ATA_PROT_PIO:
528                 if (lba48) {
529                         rcmd = ATA_CMD_PIO_READ_EXT;
530                         wcmd = ATA_CMD_PIO_WRITE_EXT;
531                 } else {
532                         rcmd = ATA_CMD_PIO_READ;
533                         wcmd = ATA_CMD_PIO_WRITE;
534                 }
535                 break;
536
537         case ATA_PROT_DMA:
538                 if (lba48) {
539                         rcmd = ATA_CMD_READ_EXT;
540                         wcmd = ATA_CMD_WRITE_EXT;
541                 } else {
542                         rcmd = ATA_CMD_READ;
543                         wcmd = ATA_CMD_WRITE;
544                 }
545                 break;
546
547         default:
548                 return -1;
549         }
550
551         return rcmd | (wcmd << 8);
552 }
553
554 /**
555  *      ata_dev_set_protocol - set taskfile protocol and r/w commands
556  *      @dev: device to examine and configure
557  *
558  *      Examine the device configuration, after we have
559  *      read the identify-device page and configured the
560  *      data transfer mode.  Set internal state related to
561  *      the ATA taskfile protocol (pio, pio mult, dma, etc.)
562  *      and calculate the proper read/write commands to use.
563  *
564  *      LOCKING:
565  *      caller.
566  */
567 static void ata_dev_set_protocol(struct ata_device *dev)
568 {
569         int pio = (dev->flags & ATA_DFLAG_PIO);
570         int lba48 = (dev->flags & ATA_DFLAG_LBA48);
571         int proto, cmd;
572
573         if (pio)
574                 proto = dev->xfer_protocol = ATA_PROT_PIO;
575         else
576                 proto = dev->xfer_protocol = ATA_PROT_DMA;
577
578         cmd = ata_prot_to_cmd(proto, lba48);
579         if (cmd < 0)
580                 BUG();
581
582         dev->read_cmd = cmd & 0xff;
583         dev->write_cmd = (cmd >> 8) & 0xff;
584 }
585
586 static const char * xfer_mode_str[] = {
587         "UDMA/16",
588         "UDMA/25",
589         "UDMA/33",
590         "UDMA/44",
591         "UDMA/66",
592         "UDMA/100",
593         "UDMA/133",
594         "UDMA7",
595         "MWDMA0",
596         "MWDMA1",
597         "MWDMA2",
598         "PIO0",
599         "PIO1",
600         "PIO2",
601         "PIO3",
602         "PIO4",
603 };
604
605 /**
606  *      ata_udma_string - convert UDMA bit offset to string
607  *      @mask: mask of bits supported; only highest bit counts.
608  *
609  *      Determine string which represents the highest speed
610  *      (highest bit in @udma_mask).
611  *
612  *      LOCKING:
613  *      None.
614  *
615  *      RETURNS:
616  *      Constant C string representing highest speed listed in
617  *      @udma_mask, or the constant C string "<n/a>".
618  */
619
620 static const char *ata_mode_string(unsigned int mask)
621 {
622         int i;
623
624         for (i = 7; i >= 0; i--)
625                 if (mask & (1 << i))
626                         goto out;
627         for (i = ATA_SHIFT_MWDMA + 2; i >= ATA_SHIFT_MWDMA; i--)
628                 if (mask & (1 << i))
629                         goto out;
630         for (i = ATA_SHIFT_PIO + 4; i >= ATA_SHIFT_PIO; i--)
631                 if (mask & (1 << i))
632                         goto out;
633
634         return "<n/a>";
635
636 out:
637         return xfer_mode_str[i];
638 }
639
640 /**
641  *      ata_pio_devchk - PATA device presence detection
642  *      @ap: ATA channel to examine
643  *      @device: Device to examine (starting at zero)
644  *
645  *      This technique was originally described in
646  *      Hale Landis's ATADRVR (www.ata-atapi.com), and
647  *      later found its way into the ATA/ATAPI spec.
648  *
649  *      Write a pattern to the ATA shadow registers,
650  *      and if a device is present, it will respond by
651  *      correctly storing and echoing back the
652  *      ATA shadow register contents.
653  *
654  *      LOCKING:
655  *      caller.
656  */
657
658 static unsigned int ata_pio_devchk(struct ata_port *ap,
659                                    unsigned int device)
660 {
661         struct ata_ioports *ioaddr = &ap->ioaddr;
662         u8 nsect, lbal;
663
664         ap->ops->dev_select(ap, device);
665
666         outb(0x55, ioaddr->nsect_addr);
667         outb(0xaa, ioaddr->lbal_addr);
668
669         outb(0xaa, ioaddr->nsect_addr);
670         outb(0x55, ioaddr->lbal_addr);
671
672         outb(0x55, ioaddr->nsect_addr);
673         outb(0xaa, ioaddr->lbal_addr);
674
675         nsect = inb(ioaddr->nsect_addr);
676         lbal = inb(ioaddr->lbal_addr);
677
678         if ((nsect == 0x55) && (lbal == 0xaa))
679                 return 1;       /* we found a device */
680
681         return 0;               /* nothing found */
682 }
683
684 /**
685  *      ata_mmio_devchk - PATA device presence detection
686  *      @ap: ATA channel to examine
687  *      @device: Device to examine (starting at zero)
688  *
689  *      This technique was originally described in
690  *      Hale Landis's ATADRVR (www.ata-atapi.com), and
691  *      later found its way into the ATA/ATAPI spec.
692  *
693  *      Write a pattern to the ATA shadow registers,
694  *      and if a device is present, it will respond by
695  *      correctly storing and echoing back the
696  *      ATA shadow register contents.
697  *
698  *      LOCKING:
699  *      caller.
700  */
701
702 static unsigned int ata_mmio_devchk(struct ata_port *ap,
703                                     unsigned int device)
704 {
705         struct ata_ioports *ioaddr = &ap->ioaddr;
706         u8 nsect, lbal;
707
708         ap->ops->dev_select(ap, device);
709
710         writeb(0x55, (void __iomem *) ioaddr->nsect_addr);
711         writeb(0xaa, (void __iomem *) ioaddr->lbal_addr);
712
713         writeb(0xaa, (void __iomem *) ioaddr->nsect_addr);
714         writeb(0x55, (void __iomem *) ioaddr->lbal_addr);
715
716         writeb(0x55, (void __iomem *) ioaddr->nsect_addr);
717         writeb(0xaa, (void __iomem *) ioaddr->lbal_addr);
718
719         nsect = readb((void __iomem *) ioaddr->nsect_addr);
720         lbal = readb((void __iomem *) ioaddr->lbal_addr);
721
722         if ((nsect == 0x55) && (lbal == 0xaa))
723                 return 1;       /* we found a device */
724
725         return 0;               /* nothing found */
726 }
727
728 /**
729  *      ata_devchk - PATA device presence detection
730  *      @ap: ATA channel to examine
731  *      @device: Device to examine (starting at zero)
732  *
733  *      Dispatch ATA device presence detection, depending
734  *      on whether we are using PIO or MMIO to talk to the
735  *      ATA shadow registers.
736  *
737  *      LOCKING:
738  *      caller.
739  */
740
741 static unsigned int ata_devchk(struct ata_port *ap,
742                                     unsigned int device)
743 {
744         if (ap->flags & ATA_FLAG_MMIO)
745                 return ata_mmio_devchk(ap, device);
746         return ata_pio_devchk(ap, device);
747 }
748
749 /**
750  *      ata_dev_classify - determine device type based on ATA-spec signature
751  *      @tf: ATA taskfile register set for device to be identified
752  *
753  *      Determine from taskfile register contents whether a device is
754  *      ATA or ATAPI, as per "Signature and persistence" section
755  *      of ATA/PI spec (volume 1, sect 5.14).
756  *
757  *      LOCKING:
758  *      None.
759  *
760  *      RETURNS:
761  *      Device type, %ATA_DEV_ATA, %ATA_DEV_ATAPI, or %ATA_DEV_UNKNOWN
762  *      the event of failure.
763  */
764
765 unsigned int ata_dev_classify(struct ata_taskfile *tf)
766 {
767         /* Apple's open source Darwin code hints that some devices only
768          * put a proper signature into the LBA mid/high registers,
769          * So, we only check those.  It's sufficient for uniqueness.
770          */
771
772         if (((tf->lbam == 0) && (tf->lbah == 0)) ||
773             ((tf->lbam == 0x3c) && (tf->lbah == 0xc3))) {
774                 DPRINTK("found ATA device by sig\n");
775                 return ATA_DEV_ATA;
776         }
777
778         if (((tf->lbam == 0x14) && (tf->lbah == 0xeb)) ||
779             ((tf->lbam == 0x69) && (tf->lbah == 0x96))) {
780                 DPRINTK("found ATAPI device by sig\n");
781                 return ATA_DEV_ATAPI;
782         }
783
784         DPRINTK("unknown device\n");
785         return ATA_DEV_UNKNOWN;
786 }
787
788 /**
789  *      ata_dev_try_classify - Parse returned ATA device signature
790  *      @ap: ATA channel to examine
791  *      @device: Device to examine (starting at zero)
792  *
793  *      After an event -- SRST, E.D.D., or SATA COMRESET -- occurs,
794  *      an ATA/ATAPI-defined set of values is placed in the ATA
795  *      shadow registers, indicating the results of device detection
796  *      and diagnostics.
797  *
798  *      Select the ATA device, and read the values from the ATA shadow
799  *      registers.  Then parse according to the Error register value,
800  *      and the spec-defined values examined by ata_dev_classify().
801  *
802  *      LOCKING:
803  *      caller.
804  */
805
806 static u8 ata_dev_try_classify(struct ata_port *ap, unsigned int device)
807 {
808         struct ata_device *dev = &ap->device[device];
809         struct ata_taskfile tf;
810         unsigned int class;
811         u8 err;
812
813         ap->ops->dev_select(ap, device);
814
815         memset(&tf, 0, sizeof(tf));
816
817         err = ata_chk_err(ap);
818         ap->ops->tf_read(ap, &tf);
819
820         dev->class = ATA_DEV_NONE;
821
822         /* see if device passed diags */
823         if (err == 1)
824                 /* do nothing */ ;
825         else if ((device == 0) && (err == 0x81))
826                 /* do nothing */ ;
827         else
828                 return err;
829
830         /* determine if device if ATA or ATAPI */
831         class = ata_dev_classify(&tf);
832         if (class == ATA_DEV_UNKNOWN)
833                 return err;
834         if ((class == ATA_DEV_ATA) && (ata_chk_status(ap) == 0))
835                 return err;
836
837         dev->class = class;
838
839         return err;
840 }
841
842 /**
843  *      ata_dev_id_string - Convert IDENTIFY DEVICE page into string
844  *      @id: IDENTIFY DEVICE results we will examine
845  *      @s: string into which data is output
846  *      @ofs: offset into identify device page
847  *      @len: length of string to return. must be an even number.
848  *
849  *      The strings in the IDENTIFY DEVICE page are broken up into
850  *      16-bit chunks.  Run through the string, and output each
851  *      8-bit chunk linearly, regardless of platform.
852  *
853  *      LOCKING:
854  *      caller.
855  */
856
857 void ata_dev_id_string(u16 *id, unsigned char *s,
858                        unsigned int ofs, unsigned int len)
859 {
860         unsigned int c;
861
862         while (len > 0) {
863                 c = id[ofs] >> 8;
864                 *s = c;
865                 s++;
866
867                 c = id[ofs] & 0xff;
868                 *s = c;
869                 s++;
870
871                 ofs++;
872                 len -= 2;
873         }
874 }
875
876 void ata_noop_dev_select (struct ata_port *ap, unsigned int device)
877 {
878 }
879
880 /**
881  *      ata_std_dev_select - Select device 0/1 on ATA bus
882  *      @ap: ATA channel to manipulate
883  *      @device: ATA device (numbered from zero) to select
884  *
885  *      Use the method defined in the ATA specification to
886  *      make either device 0, or device 1, active on the
887  *      ATA channel.
888  *
889  *      LOCKING:
890  *      caller.
891  */
892
893 void ata_std_dev_select (struct ata_port *ap, unsigned int device)
894 {
895         u8 tmp;
896
897         if (device == 0)
898                 tmp = ATA_DEVICE_OBS;
899         else
900                 tmp = ATA_DEVICE_OBS | ATA_DEV1;
901
902         if (ap->flags & ATA_FLAG_MMIO) {
903                 writeb(tmp, (void __iomem *) ap->ioaddr.device_addr);
904         } else {
905                 outb(tmp, ap->ioaddr.device_addr);
906         }
907         ata_pause(ap);          /* needed; also flushes, for mmio */
908 }
909
910 /**
911  *      ata_dev_select - Select device 0/1 on ATA bus
912  *      @ap: ATA channel to manipulate
913  *      @device: ATA device (numbered from zero) to select
914  *      @wait: non-zero to wait for Status register BSY bit to clear
915  *      @can_sleep: non-zero if context allows sleeping
916  *
917  *      Use the method defined in the ATA specification to
918  *      make either device 0, or device 1, active on the
919  *      ATA channel.
920  *
921  *      This is a high-level version of ata_std_dev_select(),
922  *      which additionally provides the services of inserting
923  *      the proper pauses and status polling, where needed.
924  *
925  *      LOCKING:
926  *      caller.
927  */
928
929 void ata_dev_select(struct ata_port *ap, unsigned int device,
930                            unsigned int wait, unsigned int can_sleep)
931 {
932         VPRINTK("ENTER, ata%u: device %u, wait %u\n",
933                 ap->id, device, wait);
934
935         if (wait)
936                 ata_wait_idle(ap);
937
938         ap->ops->dev_select(ap, device);
939
940         if (wait) {
941                 if (can_sleep && ap->device[device].class == ATA_DEV_ATAPI)
942                         msleep(150);
943                 ata_wait_idle(ap);
944         }
945 }
946
947 /**
948  *      ata_dump_id - IDENTIFY DEVICE info debugging output
949  *      @dev: Device whose IDENTIFY DEVICE page we will dump
950  *
951  *      Dump selected 16-bit words from a detected device's
952  *      IDENTIFY PAGE page.
953  *
954  *      LOCKING:
955  *      caller.
956  */
957
958 static inline void ata_dump_id(struct ata_device *dev)
959 {
960         DPRINTK("49==0x%04x  "
961                 "53==0x%04x  "
962                 "63==0x%04x  "
963                 "64==0x%04x  "
964                 "75==0x%04x  \n",
965                 dev->id[49],
966                 dev->id[53],
967                 dev->id[63],
968                 dev->id[64],
969                 dev->id[75]);
970         DPRINTK("80==0x%04x  "
971                 "81==0x%04x  "
972                 "82==0x%04x  "
973                 "83==0x%04x  "
974                 "84==0x%04x  \n",
975                 dev->id[80],
976                 dev->id[81],
977                 dev->id[82],
978                 dev->id[83],
979                 dev->id[84]);
980         DPRINTK("88==0x%04x  "
981                 "93==0x%04x\n",
982                 dev->id[88],
983                 dev->id[93]);
984 }
985
986 /**
987  *      ata_dev_identify - obtain IDENTIFY x DEVICE page
988  *      @ap: port on which device we wish to probe resides
989  *      @device: device bus address, starting at zero
990  *
991  *      Following bus reset, we issue the IDENTIFY [PACKET] DEVICE
992  *      command, and read back the 512-byte device information page.
993  *      The device information page is fed to us via the standard
994  *      PIO-IN protocol, but we hand-code it here. (TODO: investigate
995  *      using standard PIO-IN paths)
996  *
997  *      After reading the device information page, we use several
998  *      bits of information from it to initialize data structures
999  *      that will be used during the lifetime of the ata_device.
1000  *      Other data from the info page is used to disqualify certain
1001  *      older ATA devices we do not wish to support.
1002  *
1003  *      LOCKING:
1004  *      Inherited from caller.  Some functions called by this function
1005  *      obtain the host_set lock.
1006  */
1007
1008 static void ata_dev_identify(struct ata_port *ap, unsigned int device)
1009 {
1010         struct ata_device *dev = &ap->device[device];
1011         unsigned int i;
1012         u16 tmp;
1013         unsigned long xfer_modes;
1014         u8 status;
1015         unsigned int using_edd;
1016         DECLARE_COMPLETION(wait);
1017         struct ata_queued_cmd *qc;
1018         unsigned long flags;
1019         int rc;
1020
1021         if (!ata_dev_present(dev)) {
1022                 DPRINTK("ENTER/EXIT (host %u, dev %u) -- nodev\n",
1023                         ap->id, device);
1024                 return;
1025         }
1026
1027         if (ap->flags & (ATA_FLAG_SRST | ATA_FLAG_SATA_RESET))
1028                 using_edd = 0;
1029         else
1030                 using_edd = 1;
1031
1032         DPRINTK("ENTER, host %u, dev %u\n", ap->id, device);
1033
1034         assert (dev->class == ATA_DEV_ATA || dev->class == ATA_DEV_ATAPI ||
1035                 dev->class == ATA_DEV_NONE);
1036
1037         ata_dev_select(ap, device, 1, 1); /* select device 0/1 */
1038
1039         qc = ata_qc_new_init(ap, dev);
1040         BUG_ON(qc == NULL);
1041
1042         ata_sg_init_one(qc, dev->id, sizeof(dev->id));
1043         qc->dma_dir = DMA_FROM_DEVICE;
1044         qc->tf.protocol = ATA_PROT_PIO;
1045         qc->nsect = 1;
1046
1047 retry:
1048         if (dev->class == ATA_DEV_ATA) {
1049                 qc->tf.command = ATA_CMD_ID_ATA;
1050                 DPRINTK("do ATA identify\n");
1051         } else {
1052                 qc->tf.command = ATA_CMD_ID_ATAPI;
1053                 DPRINTK("do ATAPI identify\n");
1054         }
1055
1056         qc->waiting = &wait;
1057         qc->complete_fn = ata_qc_complete_noop;
1058
1059         spin_lock_irqsave(&ap->host_set->lock, flags);
1060         rc = ata_qc_issue(qc);
1061         spin_unlock_irqrestore(&ap->host_set->lock, flags);
1062
1063         if (rc)
1064                 goto err_out;
1065         else
1066                 wait_for_completion(&wait);
1067
1068         status = ata_chk_status(ap);
1069         if (status & ATA_ERR) {
1070                 /*
1071                  * arg!  EDD works for all test cases, but seems to return
1072                  * the ATA signature for some ATAPI devices.  Until the
1073                  * reason for this is found and fixed, we fix up the mess
1074                  * here.  If IDENTIFY DEVICE returns command aborted
1075                  * (as ATAPI devices do), then we issue an
1076                  * IDENTIFY PACKET DEVICE.
1077                  *
1078                  * ATA software reset (SRST, the default) does not appear
1079                  * to have this problem.
1080                  */
1081                 if ((using_edd) && (qc->tf.command == ATA_CMD_ID_ATA)) {
1082                         u8 err = ata_chk_err(ap);
1083                         if (err & ATA_ABORTED) {
1084                                 dev->class = ATA_DEV_ATAPI;
1085                                 qc->cursg = 0;
1086                                 qc->cursg_ofs = 0;
1087                                 qc->cursect = 0;
1088                                 qc->nsect = 1;
1089                                 goto retry;
1090                         }
1091                 }
1092                 goto err_out;
1093         }
1094
1095         swap_buf_le16(dev->id, ATA_ID_WORDS);
1096
1097         /* print device capabilities */
1098         printk(KERN_DEBUG "ata%u: dev %u cfg "
1099                "49:%04x 82:%04x 83:%04x 84:%04x 85:%04x 86:%04x 87:%04x 88:%04x\n",
1100                ap->id, device, dev->id[49],
1101                dev->id[82], dev->id[83], dev->id[84],
1102                dev->id[85], dev->id[86], dev->id[87],
1103                dev->id[88]);
1104
1105         /*
1106          * common ATA, ATAPI feature tests
1107          */
1108
1109         /* we require LBA and DMA support (bits 8 & 9 of word 49) */
1110         if (!ata_id_has_dma(dev->id) || !ata_id_has_lba(dev->id)) {
1111                 printk(KERN_DEBUG "ata%u: no dma/lba\n", ap->id);
1112                 goto err_out_nosup;
1113         }
1114
1115         /* quick-n-dirty find max transfer mode; for printk only */
1116         xfer_modes = dev->id[ATA_ID_UDMA_MODES];
1117         if (!xfer_modes)
1118                 xfer_modes = (dev->id[ATA_ID_MWDMA_MODES]) << ATA_SHIFT_MWDMA;
1119         if (!xfer_modes) {
1120                 xfer_modes = (dev->id[ATA_ID_PIO_MODES]) << (ATA_SHIFT_PIO + 3);
1121                 xfer_modes |= (0x7 << ATA_SHIFT_PIO);
1122         }
1123
1124         ata_dump_id(dev);
1125
1126         /* ATA-specific feature tests */
1127         if (dev->class == ATA_DEV_ATA) {
1128                 if (!ata_id_is_ata(dev->id))    /* sanity check */
1129                         goto err_out_nosup;
1130
1131                 tmp = dev->id[ATA_ID_MAJOR_VER];
1132                 for (i = 14; i >= 1; i--)
1133                         if (tmp & (1 << i))
1134                                 break;
1135
1136                 /* we require at least ATA-3 */
1137                 if (i < 3) {
1138                         printk(KERN_DEBUG "ata%u: no ATA-3\n", ap->id);
1139                         goto err_out_nosup;
1140                 }
1141
1142                 if (ata_id_has_lba48(dev->id)) {
1143                         dev->flags |= ATA_DFLAG_LBA48;
1144                         dev->n_sectors = ata_id_u64(dev->id, 100);
1145                 } else {
1146                         dev->n_sectors = ata_id_u32(dev->id, 60);
1147                 }
1148
1149                 ap->host->max_cmd_len = 16;
1150
1151                 /* print device info to dmesg */
1152                 printk(KERN_INFO "ata%u: dev %u ATA, max %s, %Lu sectors:%s\n",
1153                        ap->id, device,
1154                        ata_mode_string(xfer_modes),
1155                        (unsigned long long)dev->n_sectors,
1156                        dev->flags & ATA_DFLAG_LBA48 ? " lba48" : "");
1157         }
1158
1159         /* ATAPI-specific feature tests */
1160         else {
1161                 if (ata_id_is_ata(dev->id))             /* sanity check */
1162                         goto err_out_nosup;
1163
1164                 rc = atapi_cdb_len(dev->id);
1165                 if ((rc < 12) || (rc > ATAPI_CDB_LEN)) {
1166                         printk(KERN_WARNING "ata%u: unsupported CDB len\n", ap->id);
1167                         goto err_out_nosup;
1168                 }
1169                 ap->cdb_len = (unsigned int) rc;
1170                 ap->host->max_cmd_len = (unsigned char) ap->cdb_len;
1171
1172                 /* print device info to dmesg */
1173                 printk(KERN_INFO "ata%u: dev %u ATAPI, max %s\n",
1174                        ap->id, device,
1175                        ata_mode_string(xfer_modes));
1176         }
1177
1178         DPRINTK("EXIT, drv_stat = 0x%x\n", ata_chk_status(ap));
1179         return;
1180
1181 err_out_nosup:
1182         printk(KERN_WARNING "ata%u: dev %u not supported, ignoring\n",
1183                ap->id, device);
1184 err_out:
1185         dev->class++;   /* converts ATA_DEV_xxx into ATA_DEV_xxx_UNSUP */
1186         DPRINTK("EXIT, err\n");
1187 }
1188
1189 /**
1190  *      ata_bus_probe - Reset and probe ATA bus
1191  *      @ap: Bus to probe
1192  *
1193  *      LOCKING:
1194  *
1195  *      RETURNS:
1196  *      Zero on success, non-zero on error.
1197  */
1198
1199 static int ata_bus_probe(struct ata_port *ap)
1200 {
1201         unsigned int i, found = 0;
1202
1203         ap->ops->phy_reset(ap);
1204         if (ap->flags & ATA_FLAG_PORT_DISABLED)
1205                 goto err_out;
1206
1207         for (i = 0; i < ATA_MAX_DEVICES; i++) {
1208                 ata_dev_identify(ap, i);
1209                 if (ata_dev_present(&ap->device[i])) {
1210                         found = 1;
1211                         if (ap->ops->dev_config)
1212                                 ap->ops->dev_config(ap, &ap->device[i]);
1213                 }
1214         }
1215
1216         if ((!found) || (ap->flags & ATA_FLAG_PORT_DISABLED))
1217                 goto err_out_disable;
1218
1219         ata_set_mode(ap);
1220         if (ap->flags & ATA_FLAG_PORT_DISABLED)
1221                 goto err_out_disable;
1222
1223         return 0;
1224
1225 err_out_disable:
1226         ap->ops->port_disable(ap);
1227 err_out:
1228         return -1;
1229 }
1230
1231 /**
1232  *      ata_port_probe -
1233  *      @ap:
1234  *
1235  *      LOCKING:
1236  */
1237
1238 void ata_port_probe(struct ata_port *ap)
1239 {
1240         ap->flags &= ~ATA_FLAG_PORT_DISABLED;
1241 }
1242
1243 /**
1244  *      __sata_phy_reset -
1245  *      @ap:
1246  *
1247  *      LOCKING:
1248  *
1249  */
1250 void __sata_phy_reset(struct ata_port *ap)
1251 {
1252         u32 sstatus;
1253         unsigned long timeout = jiffies + (HZ * 5);
1254
1255         if (ap->flags & ATA_FLAG_SATA_RESET) {
1256                 /* issue phy wake/reset */
1257                 scr_write_flush(ap, SCR_CONTROL, 0x301);
1258                 udelay(400);                    /* FIXME: a guess */
1259         }
1260         scr_write_flush(ap, SCR_CONTROL, 0x300); /* phy wake/clear reset */
1261
1262         /* wait for phy to become ready, if necessary */
1263         do {
1264                 msleep(200);
1265                 sstatus = scr_read(ap, SCR_STATUS);
1266                 if ((sstatus & 0xf) != 1)
1267                         break;
1268         } while (time_before(jiffies, timeout));
1269
1270         /* TODO: phy layer with polling, timeouts, etc. */
1271         if (sata_dev_present(ap))
1272                 ata_port_probe(ap);
1273         else {
1274                 sstatus = scr_read(ap, SCR_STATUS);
1275                 printk(KERN_INFO "ata%u: no device found (phy stat %08x)\n",
1276                        ap->id, sstatus);
1277                 ata_port_disable(ap);
1278         }
1279
1280         if (ap->flags & ATA_FLAG_PORT_DISABLED)
1281                 return;
1282
1283         if (ata_busy_sleep(ap, ATA_TMOUT_BOOT_QUICK, ATA_TMOUT_BOOT)) {
1284                 ata_port_disable(ap);
1285                 return;
1286         }
1287
1288         ap->cbl = ATA_CBL_SATA;
1289 }
1290
1291 /**
1292  *      __sata_phy_reset -
1293  *      @ap:
1294  *
1295  *      LOCKING:
1296  *
1297  */
1298 void sata_phy_reset(struct ata_port *ap)
1299 {
1300         __sata_phy_reset(ap);
1301         if (ap->flags & ATA_FLAG_PORT_DISABLED)
1302                 return;
1303         ata_bus_reset(ap);
1304 }
1305
1306 /**
1307  *      ata_port_disable -
1308  *      @ap:
1309  *
1310  *      LOCKING:
1311  */
1312
1313 void ata_port_disable(struct ata_port *ap)
1314 {
1315         ap->device[0].class = ATA_DEV_NONE;
1316         ap->device[1].class = ATA_DEV_NONE;
1317         ap->flags |= ATA_FLAG_PORT_DISABLED;
1318 }
1319
1320 static struct {
1321         unsigned int shift;
1322         u8 base;
1323 } xfer_mode_classes[] = {
1324         { ATA_SHIFT_UDMA,       XFER_UDMA_0 },
1325         { ATA_SHIFT_MWDMA,      XFER_MW_DMA_0 },
1326         { ATA_SHIFT_PIO,        XFER_PIO_0 },
1327 };
1328
1329 static inline u8 base_from_shift(unsigned int shift)
1330 {
1331         int i;
1332
1333         for (i = 0; i < ARRAY_SIZE(xfer_mode_classes); i++)
1334                 if (xfer_mode_classes[i].shift == shift)
1335                         return xfer_mode_classes[i].base;
1336
1337         return 0xff;
1338 }
1339
1340 static void ata_dev_set_mode(struct ata_port *ap, struct ata_device *dev)
1341 {
1342         int ofs, idx;
1343         u8 base;
1344
1345         if (!ata_dev_present(dev) || (ap->flags & ATA_FLAG_PORT_DISABLED))
1346                 return;
1347
1348         if (dev->xfer_shift == ATA_SHIFT_PIO)
1349                 dev->flags |= ATA_DFLAG_PIO;
1350
1351         ata_dev_set_xfermode(ap, dev);
1352
1353         base = base_from_shift(dev->xfer_shift);
1354         ofs = dev->xfer_mode - base;
1355         idx = ofs + dev->xfer_shift;
1356         WARN_ON(idx >= ARRAY_SIZE(xfer_mode_str));
1357
1358         DPRINTK("idx=%d xfer_shift=%u, xfer_mode=0x%x, base=0x%x, offset=%d\n",
1359                 idx, dev->xfer_shift, (int)dev->xfer_mode, (int)base, ofs);
1360
1361         printk(KERN_INFO "ata%u: dev %u configured for %s\n",
1362                 ap->id, dev->devno, xfer_mode_str[idx]);
1363 }
1364
1365 static int ata_host_set_pio(struct ata_port *ap)
1366 {
1367         unsigned int mask;
1368         int x, i;
1369         u8 base, xfer_mode;
1370
1371         mask = ata_get_mode_mask(ap, ATA_SHIFT_PIO);
1372         x = fgb(mask);
1373         if (x < 0) {
1374                 printk(KERN_WARNING "ata%u: no PIO support\n", ap->id);
1375                 return -1;
1376         }
1377
1378         base = base_from_shift(ATA_SHIFT_PIO);
1379         xfer_mode = base + x;
1380
1381         DPRINTK("base 0x%x xfer_mode 0x%x mask 0x%x x %d\n",
1382                 (int)base, (int)xfer_mode, mask, x);
1383
1384         for (i = 0; i < ATA_MAX_DEVICES; i++) {
1385                 struct ata_device *dev = &ap->device[i];
1386                 if (ata_dev_present(dev)) {
1387                         dev->pio_mode = xfer_mode;
1388                         dev->xfer_mode = xfer_mode;
1389                         dev->xfer_shift = ATA_SHIFT_PIO;
1390                         if (ap->ops->set_piomode)
1391                                 ap->ops->set_piomode(ap, dev);
1392                 }
1393         }
1394
1395         return 0;
1396 }
1397
1398 static void ata_host_set_dma(struct ata_port *ap, u8 xfer_mode,
1399                             unsigned int xfer_shift)
1400 {
1401         int i;
1402
1403         for (i = 0; i < ATA_MAX_DEVICES; i++) {
1404                 struct ata_device *dev = &ap->device[i];
1405                 if (ata_dev_present(dev)) {
1406                         dev->dma_mode = xfer_mode;
1407                         dev->xfer_mode = xfer_mode;
1408                         dev->xfer_shift = xfer_shift;
1409                         if (ap->ops->set_dmamode)
1410                                 ap->ops->set_dmamode(ap, dev);
1411                 }
1412         }
1413 }
1414
1415 /**
1416  *      ata_set_mode - Program timings and issue SET FEATURES - XFER
1417  *      @ap: port on which timings will be programmed
1418  *
1419  *      LOCKING:
1420  *
1421  */
1422 static void ata_set_mode(struct ata_port *ap)
1423 {
1424         unsigned int i, xfer_shift;
1425         u8 xfer_mode;
1426         int rc;
1427
1428         /* step 1: always set host PIO timings */
1429         rc = ata_host_set_pio(ap);
1430         if (rc)
1431                 goto err_out;
1432
1433         /* step 2: choose the best data xfer mode */
1434         xfer_mode = xfer_shift = 0;
1435         rc = ata_choose_xfer_mode(ap, &xfer_mode, &xfer_shift);
1436         if (rc)
1437                 goto err_out;
1438
1439         /* step 3: if that xfer mode isn't PIO, set host DMA timings */
1440         if (xfer_shift != ATA_SHIFT_PIO)
1441                 ata_host_set_dma(ap, xfer_mode, xfer_shift);
1442
1443         /* step 4: update devices' xfer mode */
1444         ata_dev_set_mode(ap, &ap->device[0]);
1445         ata_dev_set_mode(ap, &ap->device[1]);
1446
1447         if (ap->flags & ATA_FLAG_PORT_DISABLED)
1448                 return;
1449
1450         if (ap->ops->post_set_mode)
1451                 ap->ops->post_set_mode(ap);
1452
1453         for (i = 0; i < 2; i++) {
1454                 struct ata_device *dev = &ap->device[i];
1455                 ata_dev_set_protocol(dev);
1456         }
1457
1458         return;
1459
1460 err_out:
1461         ata_port_disable(ap);
1462 }
1463
1464 /**
1465  *      ata_busy_sleep - sleep until BSY clears, or timeout
1466  *      @ap: port containing status register to be polled
1467  *      @tmout_pat: impatience timeout
1468  *      @tmout: overall timeout
1469  *
1470  *      LOCKING:
1471  *
1472  */
1473
1474 static unsigned int ata_busy_sleep (struct ata_port *ap,
1475                                     unsigned long tmout_pat,
1476                                     unsigned long tmout)
1477 {
1478         unsigned long timer_start, timeout;
1479         u8 status;
1480
1481         status = ata_busy_wait(ap, ATA_BUSY, 300);
1482         timer_start = jiffies;
1483         timeout = timer_start + tmout_pat;
1484         while ((status & ATA_BUSY) && (time_before(jiffies, timeout))) {
1485                 msleep(50);
1486                 status = ata_busy_wait(ap, ATA_BUSY, 3);
1487         }
1488
1489         if (status & ATA_BUSY)
1490                 printk(KERN_WARNING "ata%u is slow to respond, "
1491                        "please be patient\n", ap->id);
1492
1493         timeout = timer_start + tmout;
1494         while ((status & ATA_BUSY) && (time_before(jiffies, timeout))) {
1495                 msleep(50);
1496                 status = ata_chk_status(ap);
1497         }
1498
1499         if (status & ATA_BUSY) {
1500                 printk(KERN_ERR "ata%u failed to respond (%lu secs)\n",
1501                        ap->id, tmout / HZ);
1502                 return 1;
1503         }
1504
1505         return 0;
1506 }
1507
1508 static void ata_bus_post_reset(struct ata_port *ap, unsigned int devmask)
1509 {
1510         struct ata_ioports *ioaddr = &ap->ioaddr;
1511         unsigned int dev0 = devmask & (1 << 0);
1512         unsigned int dev1 = devmask & (1 << 1);
1513         unsigned long timeout;
1514
1515         /* if device 0 was found in ata_devchk, wait for its
1516          * BSY bit to clear
1517          */
1518         if (dev0)
1519                 ata_busy_sleep(ap, ATA_TMOUT_BOOT_QUICK, ATA_TMOUT_BOOT);
1520
1521         /* if device 1 was found in ata_devchk, wait for
1522          * register access, then wait for BSY to clear
1523          */
1524         timeout = jiffies + ATA_TMOUT_BOOT;
1525         while (dev1) {
1526                 u8 nsect, lbal;
1527
1528                 ap->ops->dev_select(ap, 1);
1529                 if (ap->flags & ATA_FLAG_MMIO) {
1530                         nsect = readb((void __iomem *) ioaddr->nsect_addr);
1531                         lbal = readb((void __iomem *) ioaddr->lbal_addr);
1532                 } else {
1533                         nsect = inb(ioaddr->nsect_addr);
1534                         lbal = inb(ioaddr->lbal_addr);
1535                 }
1536                 if ((nsect == 1) && (lbal == 1))
1537                         break;
1538                 if (time_after(jiffies, timeout)) {
1539                         dev1 = 0;
1540                         break;
1541                 }
1542                 msleep(50);     /* give drive a breather */
1543         }
1544         if (dev1)
1545                 ata_busy_sleep(ap, ATA_TMOUT_BOOT_QUICK, ATA_TMOUT_BOOT);
1546
1547         /* is all this really necessary? */
1548         ap->ops->dev_select(ap, 0);
1549         if (dev1)
1550                 ap->ops->dev_select(ap, 1);
1551         if (dev0)
1552                 ap->ops->dev_select(ap, 0);
1553 }
1554
1555 /**
1556  *      ata_bus_edd -
1557  *      @ap:
1558  *
1559  *      LOCKING:
1560  *
1561  */
1562
1563 static unsigned int ata_bus_edd(struct ata_port *ap)
1564 {
1565         struct ata_taskfile tf;
1566
1567         /* set up execute-device-diag (bus reset) taskfile */
1568         /* also, take interrupts to a known state (disabled) */
1569         DPRINTK("execute-device-diag\n");
1570         ata_tf_init(ap, &tf, 0);
1571         tf.ctl |= ATA_NIEN;
1572         tf.command = ATA_CMD_EDD;
1573         tf.protocol = ATA_PROT_NODATA;
1574
1575         /* do bus reset */
1576         ata_tf_to_host(ap, &tf);
1577
1578         /* spec says at least 2ms.  but who knows with those
1579          * crazy ATAPI devices...
1580          */
1581         msleep(150);
1582
1583         return ata_busy_sleep(ap, ATA_TMOUT_BOOT_QUICK, ATA_TMOUT_BOOT);
1584 }
1585
1586 static unsigned int ata_bus_softreset(struct ata_port *ap,
1587                                       unsigned int devmask)
1588 {
1589         struct ata_ioports *ioaddr = &ap->ioaddr;
1590
1591         DPRINTK("ata%u: bus reset via SRST\n", ap->id);
1592
1593         /* software reset.  causes dev0 to be selected */
1594         if (ap->flags & ATA_FLAG_MMIO) {
1595                 writeb(ap->ctl, (void __iomem *) ioaddr->ctl_addr);
1596                 udelay(20);     /* FIXME: flush */
1597                 writeb(ap->ctl | ATA_SRST, (void __iomem *) ioaddr->ctl_addr);
1598                 udelay(20);     /* FIXME: flush */
1599                 writeb(ap->ctl, (void __iomem *) ioaddr->ctl_addr);
1600         } else {
1601                 outb(ap->ctl, ioaddr->ctl_addr);
1602                 udelay(10);
1603                 outb(ap->ctl | ATA_SRST, ioaddr->ctl_addr);
1604                 udelay(10);
1605                 outb(ap->ctl, ioaddr->ctl_addr);
1606         }
1607
1608         /* spec mandates ">= 2ms" before checking status.
1609          * We wait 150ms, because that was the magic delay used for
1610          * ATAPI devices in Hale Landis's ATADRVR, for the period of time
1611          * between when the ATA command register is written, and then
1612          * status is checked.  Because waiting for "a while" before
1613          * checking status is fine, post SRST, we perform this magic
1614          * delay here as well.
1615          */
1616         msleep(150);
1617
1618         ata_bus_post_reset(ap, devmask);
1619
1620         return 0;
1621 }
1622
1623 /**
1624  *      ata_bus_reset - reset host port and associated ATA channel
1625  *      @ap: port to reset
1626  *
1627  *      This is typically the first time we actually start issuing
1628  *      commands to the ATA channel.  We wait for BSY to clear, then
1629  *      issue EXECUTE DEVICE DIAGNOSTIC command, polling for its
1630  *      result.  Determine what devices, if any, are on the channel
1631  *      by looking at the device 0/1 error register.  Look at the signature
1632  *      stored in each device's taskfile registers, to determine if
1633  *      the device is ATA or ATAPI.
1634  *
1635  *      LOCKING:
1636  *      Inherited from caller.  Some functions called by this function
1637  *      obtain the host_set lock.
1638  *
1639  *      SIDE EFFECTS:
1640  *      Sets ATA_FLAG_PORT_DISABLED if bus reset fails.
1641  */
1642
1643 void ata_bus_reset(struct ata_port *ap)
1644 {
1645         struct ata_ioports *ioaddr = &ap->ioaddr;
1646         unsigned int slave_possible = ap->flags & ATA_FLAG_SLAVE_POSS;
1647         u8 err;
1648         unsigned int dev0, dev1 = 0, rc = 0, devmask = 0;
1649
1650         DPRINTK("ENTER, host %u, port %u\n", ap->id, ap->port_no);
1651
1652         /* determine if device 0/1 are present */
1653         if (ap->flags & ATA_FLAG_SATA_RESET)
1654                 dev0 = 1;
1655         else {
1656                 dev0 = ata_devchk(ap, 0);
1657                 if (slave_possible)
1658                         dev1 = ata_devchk(ap, 1);
1659         }
1660
1661         if (dev0)
1662                 devmask |= (1 << 0);
1663         if (dev1)
1664                 devmask |= (1 << 1);
1665
1666         /* select device 0 again */
1667         ap->ops->dev_select(ap, 0);
1668
1669         /* issue bus reset */
1670         if (ap->flags & ATA_FLAG_SRST)
1671                 rc = ata_bus_softreset(ap, devmask);
1672         else if ((ap->flags & ATA_FLAG_SATA_RESET) == 0) {
1673                 /* set up device control */
1674                 if (ap->flags & ATA_FLAG_MMIO)
1675                         writeb(ap->ctl, (void __iomem *) ioaddr->ctl_addr);
1676                 else
1677                         outb(ap->ctl, ioaddr->ctl_addr);
1678                 rc = ata_bus_edd(ap);
1679         }
1680
1681         if (rc)
1682                 goto err_out;
1683
1684         /*
1685          * determine by signature whether we have ATA or ATAPI devices
1686          */
1687         err = ata_dev_try_classify(ap, 0);
1688         if ((slave_possible) && (err != 0x81))
1689                 ata_dev_try_classify(ap, 1);
1690
1691         /* re-enable interrupts */
1692         if (ap->ioaddr.ctl_addr)        /* FIXME: hack. create a hook instead */
1693                 ata_irq_on(ap);
1694
1695         /* is double-select really necessary? */
1696         if (ap->device[1].class != ATA_DEV_NONE)
1697                 ap->ops->dev_select(ap, 1);
1698         if (ap->device[0].class != ATA_DEV_NONE)
1699                 ap->ops->dev_select(ap, 0);
1700
1701         /* if no devices were detected, disable this port */
1702         if ((ap->device[0].class == ATA_DEV_NONE) &&
1703             (ap->device[1].class == ATA_DEV_NONE))
1704                 goto err_out;
1705
1706         if (ap->flags & (ATA_FLAG_SATA_RESET | ATA_FLAG_SRST)) {
1707                 /* set up device control for ATA_FLAG_SATA_RESET */
1708                 if (ap->flags & ATA_FLAG_MMIO)
1709                         writeb(ap->ctl, (void __iomem *) ioaddr->ctl_addr);
1710                 else
1711                         outb(ap->ctl, ioaddr->ctl_addr);
1712         }
1713
1714         DPRINTK("EXIT\n");
1715         return;
1716
1717 err_out:
1718         printk(KERN_ERR "ata%u: disabling port\n", ap->id);
1719         ap->ops->port_disable(ap);
1720
1721         DPRINTK("EXIT\n");
1722 }
1723
1724 static void ata_pr_blacklisted(struct ata_port *ap, struct ata_device *dev)
1725 {
1726         printk(KERN_WARNING "ata%u: dev %u is on DMA blacklist, disabling DMA\n",
1727                 ap->id, dev->devno);
1728 }
1729
1730 static const char * ata_dma_blacklist [] = {
1731         "WDC AC11000H",
1732         "WDC AC22100H",
1733         "WDC AC32500H",
1734         "WDC AC33100H",
1735         "WDC AC31600H",
1736         "WDC AC32100H",
1737         "WDC AC23200L",
1738         "Compaq CRD-8241B",
1739         "CRD-8400B",
1740         "CRD-8480B",
1741         "CRD-8482B",
1742         "CRD-84",
1743         "SanDisk SDP3B",
1744         "SanDisk SDP3B-64",
1745         "SANYO CD-ROM CRD",
1746         "HITACHI CDR-8",
1747         "HITACHI CDR-8335",
1748         "HITACHI CDR-8435",
1749         "Toshiba CD-ROM XM-6202B",
1750         "CD-532E-A",
1751         "E-IDE CD-ROM CR-840",
1752         "CD-ROM Drive/F5A",
1753         "WPI CDD-820",
1754         "SAMSUNG CD-ROM SC-148C",
1755         "SAMSUNG CD-ROM SC",
1756         "SanDisk SDP3B-64",
1757         "SAMSUNG CD-ROM SN-124",
1758         "ATAPI CD-ROM DRIVE 40X MAXIMUM",
1759         "_NEC DV5800A",
1760 };
1761
1762 static int ata_dma_blacklisted(struct ata_port *ap, struct ata_device *dev)
1763 {
1764         unsigned char model_num[40];
1765         char *s;
1766         unsigned int len;
1767         int i;
1768
1769         ata_dev_id_string(dev->id, model_num, ATA_ID_PROD_OFS,
1770                           sizeof(model_num));
1771         s = &model_num[0];
1772         len = strnlen(s, sizeof(model_num));
1773
1774         /* ATAPI specifies that empty space is blank-filled; remove blanks */
1775         while ((len > 0) && (s[len - 1] == ' ')) {
1776                 len--;
1777                 s[len] = 0;
1778         }
1779
1780         for (i = 0; i < ARRAY_SIZE(ata_dma_blacklist); i++)
1781                 if (!strncmp(ata_dma_blacklist[i], s, len))
1782                         return 1;
1783
1784         return 0;
1785 }
1786
1787 static unsigned int ata_get_mode_mask(struct ata_port *ap, int shift)
1788 {
1789         struct ata_device *master, *slave;
1790         unsigned int mask;
1791
1792         master = &ap->device[0];
1793         slave = &ap->device[1];
1794
1795         assert (ata_dev_present(master) || ata_dev_present(slave));
1796
1797         if (shift == ATA_SHIFT_UDMA) {
1798                 mask = ap->udma_mask;
1799                 if (ata_dev_present(master)) {
1800                         mask &= (master->id[ATA_ID_UDMA_MODES] & 0xff);
1801                         if (ata_dma_blacklisted(ap, master)) {
1802                                 mask = 0;
1803                                 ata_pr_blacklisted(ap, master);
1804                         }
1805                 }
1806                 if (ata_dev_present(slave)) {
1807                         mask &= (slave->id[ATA_ID_UDMA_MODES] & 0xff);
1808                         if (ata_dma_blacklisted(ap, slave)) {
1809                                 mask = 0;
1810                                 ata_pr_blacklisted(ap, slave);
1811                         }
1812                 }
1813         }
1814         else if (shift == ATA_SHIFT_MWDMA) {
1815                 mask = ap->mwdma_mask;
1816                 if (ata_dev_present(master)) {
1817                         mask &= (master->id[ATA_ID_MWDMA_MODES] & 0x07);
1818                         if (ata_dma_blacklisted(ap, master)) {
1819                                 mask = 0;
1820                                 ata_pr_blacklisted(ap, master);
1821                         }
1822                 }
1823                 if (ata_dev_present(slave)) {
1824                         mask &= (slave->id[ATA_ID_MWDMA_MODES] & 0x07);
1825                         if (ata_dma_blacklisted(ap, slave)) {
1826                                 mask = 0;
1827                                 ata_pr_blacklisted(ap, slave);
1828                         }
1829                 }
1830         }
1831         else if (shift == ATA_SHIFT_PIO) {
1832                 mask = ap->pio_mask;
1833                 if (ata_dev_present(master)) {
1834                         /* spec doesn't return explicit support for
1835                          * PIO0-2, so we fake it
1836                          */
1837                         u16 tmp_mode = master->id[ATA_ID_PIO_MODES] & 0x03;
1838                         tmp_mode <<= 3;
1839                         tmp_mode |= 0x7;
1840                         mask &= tmp_mode;
1841                 }
1842                 if (ata_dev_present(slave)) {
1843                         /* spec doesn't return explicit support for
1844                          * PIO0-2, so we fake it
1845                          */
1846                         u16 tmp_mode = slave->id[ATA_ID_PIO_MODES] & 0x03;
1847                         tmp_mode <<= 3;
1848                         tmp_mode |= 0x7;
1849                         mask &= tmp_mode;
1850                 }
1851         }
1852         else {
1853                 mask = 0xffffffff; /* shut up compiler warning */
1854                 BUG();
1855         }
1856
1857         return mask;
1858 }
1859
1860 /* find greatest bit */
1861 static int fgb(u32 bitmap)
1862 {
1863         unsigned int i;
1864         int x = -1;
1865
1866         for (i = 0; i < 32; i++)
1867                 if (bitmap & (1 << i))
1868                         x = i;
1869
1870         return x;
1871 }
1872
1873 /**
1874  *      ata_choose_xfer_mode - attempt to find best transfer mode
1875  *      @ap: Port for which an xfer mode will be selected
1876  *      @xfer_mode_out: (output) SET FEATURES - XFER MODE code
1877  *      @xfer_shift_out: (output) bit shift that selects this mode
1878  *
1879  *      LOCKING:
1880  *
1881  *      RETURNS:
1882  *      Zero on success, negative on error.
1883  */
1884
1885 static int ata_choose_xfer_mode(struct ata_port *ap,
1886                                 u8 *xfer_mode_out,
1887                                 unsigned int *xfer_shift_out)
1888 {
1889         unsigned int mask, shift;
1890         int x, i;
1891
1892         for (i = 0; i < ARRAY_SIZE(xfer_mode_classes); i++) {
1893                 shift = xfer_mode_classes[i].shift;
1894                 mask = ata_get_mode_mask(ap, shift);
1895
1896                 x = fgb(mask);
1897                 if (x >= 0) {
1898                         *xfer_mode_out = xfer_mode_classes[i].base + x;
1899                         *xfer_shift_out = shift;
1900                         return 0;
1901                 }
1902         }
1903
1904         return -1;
1905 }
1906
1907 /**
1908  *      ata_dev_set_xfermode - Issue SET FEATURES - XFER MODE command
1909  *      @ap: Port associated with device @dev
1910  *      @dev: Device to which command will be sent
1911  *
1912  *      LOCKING:
1913  */
1914
1915 static void ata_dev_set_xfermode(struct ata_port *ap, struct ata_device *dev)
1916 {
1917         DECLARE_COMPLETION(wait);
1918         struct ata_queued_cmd *qc;
1919         int rc;
1920         unsigned long flags;
1921
1922         /* set up set-features taskfile */
1923         DPRINTK("set features - xfer mode\n");
1924
1925         qc = ata_qc_new_init(ap, dev);
1926         BUG_ON(qc == NULL);
1927
1928         qc->tf.command = ATA_CMD_SET_FEATURES;
1929         qc->tf.feature = SETFEATURES_XFER;
1930         qc->tf.flags |= ATA_TFLAG_ISADDR | ATA_TFLAG_DEVICE;
1931         qc->tf.protocol = ATA_PROT_NODATA;
1932         qc->tf.nsect = dev->xfer_mode;
1933
1934         qc->waiting = &wait;
1935         qc->complete_fn = ata_qc_complete_noop;
1936
1937         spin_lock_irqsave(&ap->host_set->lock, flags);
1938         rc = ata_qc_issue(qc);
1939         spin_unlock_irqrestore(&ap->host_set->lock, flags);
1940
1941         if (rc)
1942                 ata_port_disable(ap);
1943         else
1944                 wait_for_completion(&wait);
1945
1946         DPRINTK("EXIT\n");
1947 }
1948
1949 /**
1950  *      ata_sg_clean -
1951  *      @qc:
1952  *
1953  *      LOCKING:
1954  */
1955
1956 static void ata_sg_clean(struct ata_queued_cmd *qc)
1957 {
1958         struct ata_port *ap = qc->ap;
1959         struct scatterlist *sg = qc->sg;
1960         int dir = qc->dma_dir;
1961
1962         assert(qc->flags & ATA_QCFLAG_DMAMAP);
1963         assert(sg != NULL);
1964
1965         if (qc->flags & ATA_QCFLAG_SINGLE)
1966                 assert(qc->n_elem == 1);
1967
1968         DPRINTK("unmapping %u sg elements\n", qc->n_elem);
1969
1970         if (qc->flags & ATA_QCFLAG_SG)
1971                 dma_unmap_sg(ap->host_set->dev, sg, qc->n_elem, dir);
1972         else
1973                 dma_unmap_single(ap->host_set->dev, sg_dma_address(&sg[0]),
1974                                  sg_dma_len(&sg[0]), dir);
1975
1976         qc->flags &= ~ATA_QCFLAG_DMAMAP;
1977         qc->sg = NULL;
1978 }
1979
1980 /**
1981  *      ata_fill_sg - Fill PCI IDE PRD table
1982  *      @qc: Metadata associated with taskfile to be transferred
1983  *
1984  *      LOCKING:
1985  *
1986  */
1987 static void ata_fill_sg(struct ata_queued_cmd *qc)
1988 {
1989         struct scatterlist *sg = qc->sg;
1990         struct ata_port *ap = qc->ap;
1991         unsigned int idx, nelem;
1992
1993         assert(sg != NULL);
1994         assert(qc->n_elem > 0);
1995
1996         idx = 0;
1997         for (nelem = qc->n_elem; nelem; nelem--,sg++) {
1998                 u32 addr, offset;
1999                 u32 sg_len, len;
2000
2001                 /* determine if physical DMA addr spans 64K boundary.
2002                  * Note h/w doesn't support 64-bit, so we unconditionally
2003                  * truncate dma_addr_t to u32.
2004                  */
2005                 addr = (u32) sg_dma_address(sg);
2006                 sg_len = sg_dma_len(sg);
2007
2008                 while (sg_len) {
2009                         offset = addr & 0xffff;
2010                         len = sg_len;
2011                         if ((offset + sg_len) > 0x10000)
2012                                 len = 0x10000 - offset;
2013
2014                         ap->prd[idx].addr = cpu_to_le32(addr);
2015                         ap->prd[idx].flags_len = cpu_to_le32(len & 0xffff);
2016                         VPRINTK("PRD[%u] = (0x%X, 0x%X)\n", idx, addr, len);
2017
2018                         idx++;
2019                         sg_len -= len;
2020                         addr += len;
2021                 }
2022         }
2023
2024         if (idx)
2025                 ap->prd[idx - 1].flags_len |= cpu_to_le32(ATA_PRD_EOT);
2026 }
2027 /**
2028  *      ata_check_atapi_dma - Check whether ATAPI DMA can be supported
2029  *      @qc: Metadata associated with taskfile to check
2030  *
2031  *      LOCKING:
2032  *      RETURNS: 0 when ATAPI DMA can be used
2033  *               nonzero otherwise
2034  */
2035 int ata_check_atapi_dma(struct ata_queued_cmd *qc)
2036 {
2037         struct ata_port *ap = qc->ap;
2038         int rc = 0; /* Assume ATAPI DMA is OK by default */
2039
2040         if (ap->ops->check_atapi_dma)
2041                 rc = ap->ops->check_atapi_dma(qc);
2042
2043         return rc;
2044 }
2045 /**
2046  *      ata_qc_prep - Prepare taskfile for submission
2047  *      @qc: Metadata associated with taskfile to be prepared
2048  *
2049  *      LOCKING:
2050  *      spin_lock_irqsave(host_set lock)
2051  */
2052 void ata_qc_prep(struct ata_queued_cmd *qc)
2053 {
2054         if (!(qc->flags & ATA_QCFLAG_DMAMAP))
2055                 return;
2056
2057         ata_fill_sg(qc);
2058 }
2059
2060 void ata_sg_init_one(struct ata_queued_cmd *qc, void *buf, unsigned int buflen)
2061 {
2062         struct scatterlist *sg;
2063
2064         qc->flags |= ATA_QCFLAG_SINGLE;
2065
2066         memset(&qc->sgent, 0, sizeof(qc->sgent));
2067         qc->sg = &qc->sgent;
2068         qc->n_elem = 1;
2069         qc->buf_virt = buf;
2070
2071         sg = qc->sg;
2072         sg->page = virt_to_page(buf);
2073         sg->offset = (unsigned long) buf & ~PAGE_MASK;
2074         sg->length = buflen;
2075 }
2076
2077 void ata_sg_init(struct ata_queued_cmd *qc, struct scatterlist *sg,
2078                  unsigned int n_elem)
2079 {
2080         qc->flags |= ATA_QCFLAG_SG;
2081         qc->sg = sg;
2082         qc->n_elem = n_elem;
2083 }
2084
2085 /**
2086  *      ata_sg_setup_one -
2087  *      @qc:
2088  *
2089  *      LOCKING:
2090  *      spin_lock_irqsave(host_set lock)
2091  *
2092  *      RETURNS:
2093  *
2094  */
2095
2096 static int ata_sg_setup_one(struct ata_queued_cmd *qc)
2097 {
2098         struct ata_port *ap = qc->ap;
2099         int dir = qc->dma_dir;
2100         struct scatterlist *sg = qc->sg;
2101         dma_addr_t dma_address;
2102
2103         dma_address = dma_map_single(ap->host_set->dev, qc->buf_virt,
2104                                      sg->length, dir);
2105         if (dma_mapping_error(dma_address))
2106                 return -1;
2107
2108         sg_dma_address(sg) = dma_address;
2109         sg_dma_len(sg) = sg->length;
2110
2111         DPRINTK("mapped buffer of %d bytes for %s\n", sg_dma_len(sg),
2112                 qc->tf.flags & ATA_TFLAG_WRITE ? "write" : "read");
2113
2114         return 0;
2115 }
2116
2117 /**
2118  *      ata_sg_setup -
2119  *      @qc:
2120  *
2121  *      LOCKING:
2122  *      spin_lock_irqsave(host_set lock)
2123  *
2124  *      RETURNS:
2125  *
2126  */
2127
2128 static int ata_sg_setup(struct ata_queued_cmd *qc)
2129 {
2130         struct ata_port *ap = qc->ap;
2131         struct scatterlist *sg = qc->sg;
2132         int n_elem, dir;
2133
2134         VPRINTK("ENTER, ata%u\n", ap->id);
2135         assert(qc->flags & ATA_QCFLAG_SG);
2136
2137         dir = qc->dma_dir;
2138         n_elem = dma_map_sg(ap->host_set->dev, sg, qc->n_elem, dir);
2139         if (n_elem < 1)
2140                 return -1;
2141
2142         DPRINTK("%d sg elements mapped\n", n_elem);
2143
2144         qc->n_elem = n_elem;
2145
2146         return 0;
2147 }
2148
2149 /**
2150  *      ata_pio_poll -
2151  *      @ap:
2152  *
2153  *      LOCKING:
2154  *
2155  *      RETURNS:
2156  *
2157  */
2158
2159 static unsigned long ata_pio_poll(struct ata_port *ap)
2160 {
2161         u8 status;
2162         unsigned int poll_state = PIO_ST_UNKNOWN;
2163         unsigned int reg_state = PIO_ST_UNKNOWN;
2164         const unsigned int tmout_state = PIO_ST_TMOUT;
2165
2166         switch (ap->pio_task_state) {
2167         case PIO_ST:
2168         case PIO_ST_POLL:
2169                 poll_state = PIO_ST_POLL;
2170                 reg_state = PIO_ST;
2171                 break;
2172         case PIO_ST_LAST:
2173         case PIO_ST_LAST_POLL:
2174                 poll_state = PIO_ST_LAST_POLL;
2175                 reg_state = PIO_ST_LAST;
2176                 break;
2177         default:
2178                 BUG();
2179                 break;
2180         }
2181
2182         status = ata_chk_status(ap);
2183         if (status & ATA_BUSY) {
2184                 if (time_after(jiffies, ap->pio_task_timeout)) {
2185                         ap->pio_task_state = tmout_state;
2186                         return 0;
2187                 }
2188                 ap->pio_task_state = poll_state;
2189                 return ATA_SHORT_PAUSE;
2190         }
2191
2192         ap->pio_task_state = reg_state;
2193         return 0;
2194 }
2195
2196 /**
2197  *      ata_pio_complete -
2198  *      @ap:
2199  *
2200  *      LOCKING:
2201  */
2202
2203 static void ata_pio_complete (struct ata_port *ap)
2204 {
2205         struct ata_queued_cmd *qc;
2206         u8 drv_stat;
2207
2208         /*
2209          * This is purely hueristic.  This is a fast path.
2210          * Sometimes when we enter, BSY will be cleared in
2211          * a chk-status or two.  If not, the drive is probably seeking
2212          * or something.  Snooze for a couple msecs, then
2213          * chk-status again.  If still busy, fall back to
2214          * PIO_ST_POLL state.
2215          */
2216         drv_stat = ata_busy_wait(ap, ATA_BUSY | ATA_DRQ, 10);
2217         if (drv_stat & (ATA_BUSY | ATA_DRQ)) {
2218                 msleep(2);
2219                 drv_stat = ata_busy_wait(ap, ATA_BUSY | ATA_DRQ, 10);
2220                 if (drv_stat & (ATA_BUSY | ATA_DRQ)) {
2221                         ap->pio_task_state = PIO_ST_LAST_POLL;
2222                         ap->pio_task_timeout = jiffies + ATA_TMOUT_PIO;
2223                         return;
2224                 }
2225         }
2226
2227         drv_stat = ata_wait_idle(ap);
2228         if (!ata_ok(drv_stat)) {
2229                 ap->pio_task_state = PIO_ST_ERR;
2230                 return;
2231         }
2232
2233         qc = ata_qc_from_tag(ap, ap->active_tag);
2234         assert(qc != NULL);
2235
2236         ap->pio_task_state = PIO_ST_IDLE;
2237
2238         ata_irq_on(ap);
2239
2240         ata_qc_complete(qc, drv_stat);
2241 }
2242
2243 void swap_buf_le16(u16 *buf, unsigned int buf_words)
2244 {
2245 #ifdef __BIG_ENDIAN
2246         unsigned int i;
2247
2248         for (i = 0; i < buf_words; i++)
2249                 buf[i] = le16_to_cpu(buf[i]);
2250 #endif /* __BIG_ENDIAN */
2251 }
2252
2253 static void ata_mmio_data_xfer(struct ata_port *ap, unsigned char *buf,
2254                                unsigned int buflen, int write_data)
2255 {
2256         unsigned int i;
2257         unsigned int words = buflen >> 1;
2258         u16 *buf16 = (u16 *) buf;
2259         void __iomem *mmio = (void __iomem *)ap->ioaddr.data_addr;
2260
2261         if (write_data) {
2262                 for (i = 0; i < words; i++)
2263                         writew(le16_to_cpu(buf16[i]), mmio);
2264         } else {
2265                 for (i = 0; i < words; i++)
2266                         buf16[i] = cpu_to_le16(readw(mmio));
2267         }
2268 }
2269
2270 static void ata_pio_data_xfer(struct ata_port *ap, unsigned char *buf,
2271                               unsigned int buflen, int write_data)
2272 {
2273         unsigned int dwords = buflen >> 1;
2274
2275         if (write_data)
2276                 outsw(ap->ioaddr.data_addr, buf, dwords);
2277         else
2278                 insw(ap->ioaddr.data_addr, buf, dwords);
2279 }
2280
2281 static void ata_data_xfer(struct ata_port *ap, unsigned char *buf,
2282                           unsigned int buflen, int do_write)
2283 {
2284         if (ap->flags & ATA_FLAG_MMIO)
2285                 ata_mmio_data_xfer(ap, buf, buflen, do_write);
2286         else
2287                 ata_pio_data_xfer(ap, buf, buflen, do_write);
2288 }
2289
2290 static void ata_pio_sector(struct ata_queued_cmd *qc)
2291 {
2292         int do_write = (qc->tf.flags & ATA_TFLAG_WRITE);
2293         struct scatterlist *sg = qc->sg;
2294         struct ata_port *ap = qc->ap;
2295         struct page *page;
2296         unsigned int offset;
2297         unsigned char *buf;
2298
2299         if (qc->cursect == (qc->nsect - 1))
2300                 ap->pio_task_state = PIO_ST_LAST;
2301
2302         page = sg[qc->cursg].page;
2303         offset = sg[qc->cursg].offset + qc->cursg_ofs * ATA_SECT_SIZE;
2304
2305         /* get the current page and offset */
2306         page = nth_page(page, (offset >> PAGE_SHIFT));
2307         offset %= PAGE_SIZE;
2308
2309         buf = kmap(page) + offset;
2310
2311         qc->cursect++;
2312         qc->cursg_ofs++;
2313
2314         if ((qc->cursg_ofs * ATA_SECT_SIZE) == (&sg[qc->cursg])->length) {
2315                 qc->cursg++;
2316                 qc->cursg_ofs = 0;
2317         }
2318
2319         DPRINTK("data %s\n", qc->tf.flags & ATA_TFLAG_WRITE ? "write" : "read");
2320
2321         /* do the actual data transfer */
2322         do_write = (qc->tf.flags & ATA_TFLAG_WRITE);
2323         ata_data_xfer(ap, buf, ATA_SECT_SIZE, do_write);
2324
2325         kunmap(page);
2326 }
2327
2328 static void __atapi_pio_bytes(struct ata_queued_cmd *qc, unsigned int bytes)
2329 {
2330         int do_write = (qc->tf.flags & ATA_TFLAG_WRITE);
2331         struct scatterlist *sg = qc->sg;
2332         struct ata_port *ap = qc->ap;
2333         struct page *page;
2334         unsigned char *buf;
2335         unsigned int offset, count;
2336
2337         if (qc->curbytes == qc->nbytes - bytes)
2338                 ap->pio_task_state = PIO_ST_LAST;
2339
2340 next_sg:
2341         sg = &qc->sg[qc->cursg];
2342
2343 next_page:
2344         page = sg->page;
2345         offset = sg->offset + qc->cursg_ofs;
2346
2347         /* get the current page and offset */
2348         page = nth_page(page, (offset >> PAGE_SHIFT));
2349         offset %= PAGE_SIZE;
2350
2351         count = min(sg->length - qc->cursg_ofs, bytes);
2352
2353         /* don't cross page boundaries */
2354         count = min(count, (unsigned int)PAGE_SIZE - offset);
2355
2356         buf = kmap(page) + offset;
2357
2358         bytes -= count;
2359         qc->curbytes += count;
2360         qc->cursg_ofs += count;
2361
2362         if (qc->cursg_ofs == sg->length) {
2363                 qc->cursg++;
2364                 qc->cursg_ofs = 0;
2365         }
2366
2367         DPRINTK("data %s\n", qc->tf.flags & ATA_TFLAG_WRITE ? "write" : "read");
2368
2369         /* do the actual data transfer */
2370         ata_data_xfer(ap, buf, count, do_write);
2371
2372         kunmap(page);
2373
2374         if (bytes) {
2375                 if (qc->cursg_ofs < sg->length)
2376                         goto next_page;
2377                 goto next_sg;
2378         }
2379 }
2380
2381 static void atapi_pio_bytes(struct ata_queued_cmd *qc)
2382 {
2383         struct ata_port *ap = qc->ap;
2384         struct ata_device *dev = qc->dev;
2385         unsigned int ireason, bc_lo, bc_hi, bytes;
2386         int i_write, do_write = (qc->tf.flags & ATA_TFLAG_WRITE) ? 1 : 0;
2387
2388         ap->ops->tf_read(ap, &qc->tf);
2389         ireason = qc->tf.nsect;
2390         bc_lo = qc->tf.lbam;
2391         bc_hi = qc->tf.lbah;
2392         bytes = (bc_hi << 8) | bc_lo;
2393
2394         /* shall be cleared to zero, indicating xfer of data */
2395         if (ireason & (1 << 0))
2396                 goto err_out;
2397
2398         /* make sure transfer direction matches expected */
2399         i_write = ((ireason & (1 << 1)) == 0) ? 1 : 0;
2400         if (do_write != i_write)
2401                 goto err_out;
2402
2403         __atapi_pio_bytes(qc, bytes);
2404
2405         return;
2406
2407 err_out:
2408         printk(KERN_INFO "ata%u: dev %u: ATAPI check failed\n",
2409               ap->id, dev->devno);
2410         ap->pio_task_state = PIO_ST_ERR;
2411 }
2412
2413 /**
2414  *      ata_pio_sector -
2415  *      @ap:
2416  *
2417  *      LOCKING:
2418  */
2419
2420 static void ata_pio_block(struct ata_port *ap)
2421 {
2422         struct ata_queued_cmd *qc;
2423         u8 status;
2424
2425         /*
2426          * This is purely hueristic.  This is a fast path.
2427          * Sometimes when we enter, BSY will be cleared in
2428          * a chk-status or two.  If not, the drive is probably seeking
2429          * or something.  Snooze for a couple msecs, then
2430          * chk-status again.  If still busy, fall back to
2431          * PIO_ST_POLL state.
2432          */
2433         status = ata_busy_wait(ap, ATA_BUSY, 5);
2434         if (status & ATA_BUSY) {
2435                 msleep(2);
2436                 status = ata_busy_wait(ap, ATA_BUSY, 10);
2437                 if (status & ATA_BUSY) {
2438                         ap->pio_task_state = PIO_ST_POLL;
2439                         ap->pio_task_timeout = jiffies + ATA_TMOUT_PIO;
2440                         return;
2441                 }
2442         }
2443
2444         qc = ata_qc_from_tag(ap, ap->active_tag);
2445         assert(qc != NULL);
2446
2447         if (is_atapi_taskfile(&qc->tf)) {
2448                 /* no more data to transfer or unsupported ATAPI command */
2449                 if ((status & ATA_DRQ) == 0) {
2450                         ap->pio_task_state = PIO_ST_IDLE;
2451
2452                         ata_irq_on(ap);
2453
2454                         ata_qc_complete(qc, status);
2455                         return;
2456                 }
2457
2458                 atapi_pio_bytes(qc);
2459         } else {
2460                 /* handle BSY=0, DRQ=0 as error */
2461                 if ((status & ATA_DRQ) == 0) {
2462                         ap->pio_task_state = PIO_ST_ERR;
2463                         return;
2464                 }
2465
2466                 ata_pio_sector(qc);
2467         }
2468 }
2469
2470 static void ata_pio_error(struct ata_port *ap)
2471 {
2472         struct ata_queued_cmd *qc;
2473         u8 drv_stat;
2474
2475         qc = ata_qc_from_tag(ap, ap->active_tag);
2476         assert(qc != NULL);
2477
2478         drv_stat = ata_chk_status(ap);
2479         printk(KERN_WARNING "ata%u: PIO error, drv_stat 0x%x\n",
2480                ap->id, drv_stat);
2481
2482         ap->pio_task_state = PIO_ST_IDLE;
2483
2484         ata_irq_on(ap);
2485
2486         ata_qc_complete(qc, drv_stat | ATA_ERR);
2487 }
2488
2489 static void ata_pio_task(void *_data)
2490 {
2491         struct ata_port *ap = _data;
2492         unsigned long timeout = 0;
2493
2494         switch (ap->pio_task_state) {
2495         case PIO_ST_IDLE:
2496                 return;
2497
2498         case PIO_ST:
2499                 ata_pio_block(ap);
2500                 break;
2501
2502         case PIO_ST_LAST:
2503                 ata_pio_complete(ap);
2504                 break;
2505
2506         case PIO_ST_POLL:
2507         case PIO_ST_LAST_POLL:
2508                 timeout = ata_pio_poll(ap);
2509                 break;
2510
2511         case PIO_ST_TMOUT:
2512         case PIO_ST_ERR:
2513                 ata_pio_error(ap);
2514                 return;
2515         }
2516
2517         if (timeout)
2518                 queue_delayed_work(ata_wq, &ap->pio_task,
2519                                    timeout);
2520         else
2521                 queue_work(ata_wq, &ap->pio_task);
2522 }
2523
2524 static void atapi_request_sense(struct ata_port *ap, struct ata_device *dev,
2525                                 struct scsi_cmnd *cmd)
2526 {
2527         DECLARE_COMPLETION(wait);
2528         struct ata_queued_cmd *qc;
2529         unsigned long flags;
2530         int rc;
2531
2532         DPRINTK("ATAPI request sense\n");
2533
2534         qc = ata_qc_new_init(ap, dev);
2535         BUG_ON(qc == NULL);
2536
2537         /* FIXME: is this needed? */
2538         memset(cmd->sense_buffer, 0, sizeof(cmd->sense_buffer));
2539
2540         ata_sg_init_one(qc, cmd->sense_buffer, sizeof(cmd->sense_buffer));
2541         qc->dma_dir = DMA_FROM_DEVICE;
2542
2543         memset(&qc->cdb, 0, ap->cdb_len);
2544         qc->cdb[0] = REQUEST_SENSE;
2545         qc->cdb[4] = SCSI_SENSE_BUFFERSIZE;
2546
2547         qc->tf.flags |= ATA_TFLAG_ISADDR | ATA_TFLAG_DEVICE;
2548         qc->tf.command = ATA_CMD_PACKET;
2549
2550         qc->tf.protocol = ATA_PROT_ATAPI;
2551         qc->tf.lbam = (8 * 1024) & 0xff;
2552         qc->tf.lbah = (8 * 1024) >> 8;
2553         qc->nbytes = SCSI_SENSE_BUFFERSIZE;
2554
2555         qc->waiting = &wait;
2556         qc->complete_fn = ata_qc_complete_noop;
2557
2558         spin_lock_irqsave(&ap->host_set->lock, flags);
2559         rc = ata_qc_issue(qc);
2560         spin_unlock_irqrestore(&ap->host_set->lock, flags);
2561
2562         if (rc)
2563                 ata_port_disable(ap);
2564         else
2565                 wait_for_completion(&wait);
2566
2567         DPRINTK("EXIT\n");
2568 }
2569
2570 /**
2571  *      ata_qc_timeout - Handle timeout of queued command
2572  *      @qc: Command that timed out
2573  *
2574  *      Some part of the kernel (currently, only the SCSI layer)
2575  *      has noticed that the active command on port @ap has not
2576  *      completed after a specified length of time.  Handle this
2577  *      condition by disabling DMA (if necessary) and completing
2578  *      transactions, with error if necessary.
2579  *
2580  *      This also handles the case of the "lost interrupt", where
2581  *      for some reason (possibly hardware bug, possibly driver bug)
2582  *      an interrupt was not delivered to the driver, even though the
2583  *      transaction completed successfully.
2584  *
2585  *      LOCKING:
2586  */
2587
2588 static void ata_qc_timeout(struct ata_queued_cmd *qc)
2589 {
2590         struct ata_port *ap = qc->ap;
2591         struct ata_device *dev = qc->dev;
2592         u8 host_stat = 0, drv_stat;
2593
2594         DPRINTK("ENTER\n");
2595
2596         /* FIXME: doesn't this conflict with timeout handling? */
2597         if (qc->dev->class == ATA_DEV_ATAPI && qc->scsicmd) {
2598                 struct scsi_cmnd *cmd = qc->scsicmd;
2599
2600                 if (!scsi_eh_eflags_chk(cmd, SCSI_EH_CANCEL_CMD)) {
2601
2602                         /* finish completing original command */
2603                         __ata_qc_complete(qc);
2604
2605                         atapi_request_sense(ap, dev, cmd);
2606
2607                         cmd->result = (CHECK_CONDITION << 1) | (DID_OK << 16);
2608                         scsi_finish_command(cmd);
2609
2610                         goto out;
2611                 }
2612         }
2613
2614         /* hack alert!  We cannot use the supplied completion
2615          * function from inside the ->eh_strategy_handler() thread.
2616          * libata is the only user of ->eh_strategy_handler() in
2617          * any kernel, so the default scsi_done() assumes it is
2618          * not being called from the SCSI EH.
2619          */
2620         qc->scsidone = scsi_finish_command;
2621
2622         switch (qc->tf.protocol) {
2623
2624         case ATA_PROT_DMA:
2625         case ATA_PROT_ATAPI_DMA:
2626                 host_stat = ap->ops->bmdma_status(ap);
2627
2628                 /* before we do anything else, clear DMA-Start bit */
2629                 ap->ops->bmdma_stop(ap);
2630
2631                 /* fall through */
2632
2633         default:
2634                 ata_altstatus(ap);
2635                 drv_stat = ata_chk_status(ap);
2636
2637                 /* ack bmdma irq events */
2638                 ap->ops->irq_clear(ap);
2639
2640                 printk(KERN_ERR "ata%u: command 0x%x timeout, stat 0x%x host_stat 0x%x\n",
2641                        ap->id, qc->tf.command, drv_stat, host_stat);
2642
2643                 /* complete taskfile transaction */
2644                 ata_qc_complete(qc, drv_stat);
2645                 break;
2646         }
2647 out:
2648         DPRINTK("EXIT\n");
2649 }
2650
2651 /**
2652  *      ata_eng_timeout - Handle timeout of queued command
2653  *      @ap: Port on which timed-out command is active
2654  *
2655  *      Some part of the kernel (currently, only the SCSI layer)
2656  *      has noticed that the active command on port @ap has not
2657  *      completed after a specified length of time.  Handle this
2658  *      condition by disabling DMA (if necessary) and completing
2659  *      transactions, with error if necessary.
2660  *
2661  *      This also handles the case of the "lost interrupt", where
2662  *      for some reason (possibly hardware bug, possibly driver bug)
2663  *      an interrupt was not delivered to the driver, even though the
2664  *      transaction completed successfully.
2665  *
2666  *      LOCKING:
2667  *      Inherited from SCSI layer (none, can sleep)
2668  */
2669
2670 void ata_eng_timeout(struct ata_port *ap)
2671 {
2672         struct ata_queued_cmd *qc;
2673
2674         DPRINTK("ENTER\n");
2675
2676         qc = ata_qc_from_tag(ap, ap->active_tag);
2677         if (!qc) {
2678                 printk(KERN_ERR "ata%u: BUG: timeout without command\n",
2679                        ap->id);
2680                 goto out;
2681         }
2682
2683         ata_qc_timeout(qc);
2684
2685 out:
2686         DPRINTK("EXIT\n");
2687 }
2688
2689 /**
2690  *      ata_qc_new - Request an available ATA command, for queueing
2691  *      @ap: Port associated with device @dev
2692  *      @dev: Device from whom we request an available command structure
2693  *
2694  *      LOCKING:
2695  */
2696
2697 static struct ata_queued_cmd *ata_qc_new(struct ata_port *ap)
2698 {
2699         struct ata_queued_cmd *qc = NULL;
2700         unsigned int i;
2701
2702         for (i = 0; i < ATA_MAX_QUEUE; i++)
2703                 if (!test_and_set_bit(i, &ap->qactive)) {
2704                         qc = ata_qc_from_tag(ap, i);
2705                         break;
2706                 }
2707
2708         if (qc)
2709                 qc->tag = i;
2710
2711         return qc;
2712 }
2713
2714 /**
2715  *      ata_qc_new_init - Request an available ATA command, and initialize it
2716  *      @ap: Port associated with device @dev
2717  *      @dev: Device from whom we request an available command structure
2718  *
2719  *      LOCKING:
2720  */
2721
2722 struct ata_queued_cmd *ata_qc_new_init(struct ata_port *ap,
2723                                       struct ata_device *dev)
2724 {
2725         struct ata_queued_cmd *qc;
2726
2727         qc = ata_qc_new(ap);
2728         if (qc) {
2729                 qc->sg = NULL;
2730                 qc->flags = 0;
2731                 qc->scsicmd = NULL;
2732                 qc->ap = ap;
2733                 qc->dev = dev;
2734                 qc->cursect = qc->cursg = qc->cursg_ofs = 0;
2735                 qc->nsect = 0;
2736                 qc->nbytes = qc->curbytes = 0;
2737
2738                 ata_tf_init(ap, &qc->tf, dev->devno);
2739
2740                 if (dev->flags & ATA_DFLAG_LBA48)
2741                         qc->tf.flags |= ATA_TFLAG_LBA48;
2742         }
2743
2744         return qc;
2745 }
2746
2747 static int ata_qc_complete_noop(struct ata_queued_cmd *qc, u8 drv_stat)
2748 {
2749         return 0;
2750 }
2751
2752 static void __ata_qc_complete(struct ata_queued_cmd *qc)
2753 {
2754         struct ata_port *ap = qc->ap;
2755         unsigned int tag, do_clear = 0;
2756
2757         qc->flags = 0;
2758         tag = qc->tag;
2759         if (likely(ata_tag_valid(tag))) {
2760                 if (tag == ap->active_tag)
2761                         ap->active_tag = ATA_TAG_POISON;
2762                 qc->tag = ATA_TAG_POISON;
2763                 do_clear = 1;
2764         }
2765
2766         if (qc->waiting) {
2767                 struct completion *waiting = qc->waiting;
2768                 qc->waiting = NULL;
2769                 complete(waiting);
2770         }
2771
2772         if (likely(do_clear))
2773                 clear_bit(tag, &ap->qactive);
2774 }
2775
2776 /**
2777  *      ata_qc_free - free unused ata_queued_cmd
2778  *      @qc: Command to complete
2779  *
2780  *      Designed to free unused ata_queued_cmd object
2781  *      in case something prevents using it.
2782  *
2783  *      LOCKING:
2784  *
2785  */
2786 void ata_qc_free(struct ata_queued_cmd *qc)
2787 {
2788         assert(qc != NULL);     /* ata_qc_from_tag _might_ return NULL */
2789         assert(qc->waiting == NULL);    /* nothing should be waiting */
2790
2791         __ata_qc_complete(qc);
2792 }
2793
2794 /**
2795  *      ata_qc_complete - Complete an active ATA command
2796  *      @qc: Command to complete
2797  *      @drv_stat: ATA status register contents
2798  *
2799  *      LOCKING:
2800  *
2801  */
2802
2803 void ata_qc_complete(struct ata_queued_cmd *qc, u8 drv_stat)
2804 {
2805         int rc;
2806
2807         assert(qc != NULL);     /* ata_qc_from_tag _might_ return NULL */
2808         assert(qc->flags & ATA_QCFLAG_ACTIVE);
2809
2810         if (likely(qc->flags & ATA_QCFLAG_DMAMAP))
2811                 ata_sg_clean(qc);
2812
2813         /* call completion callback */
2814         rc = qc->complete_fn(qc, drv_stat);
2815         qc->flags &= ~ATA_QCFLAG_ACTIVE;
2816
2817         /* if callback indicates not to complete command (non-zero),
2818          * return immediately
2819          */
2820         if (rc != 0)
2821                 return;
2822
2823         __ata_qc_complete(qc);
2824
2825         VPRINTK("EXIT\n");
2826 }
2827
2828 static inline int ata_should_dma_map(struct ata_queued_cmd *qc)
2829 {
2830         struct ata_port *ap = qc->ap;
2831
2832         switch (qc->tf.protocol) {
2833         case ATA_PROT_DMA:
2834         case ATA_PROT_ATAPI_DMA:
2835                 return 1;
2836
2837         case ATA_PROT_ATAPI:
2838         case ATA_PROT_PIO:
2839         case ATA_PROT_PIO_MULT:
2840                 if (ap->flags & ATA_FLAG_PIO_DMA)
2841                         return 1;
2842
2843                 /* fall through */
2844
2845         default:
2846                 return 0;
2847         }
2848
2849         /* never reached */
2850 }
2851
2852 /**
2853  *      ata_qc_issue - issue taskfile to device
2854  *      @qc: command to issue to device
2855  *
2856  *      Prepare an ATA command to submission to device.
2857  *      This includes mapping the data into a DMA-able
2858  *      area, filling in the S/G table, and finally
2859  *      writing the taskfile to hardware, starting the command.
2860  *
2861  *      LOCKING:
2862  *      spin_lock_irqsave(host_set lock)
2863  *
2864  *      RETURNS:
2865  *      Zero on success, negative on error.
2866  */
2867
2868 int ata_qc_issue(struct ata_queued_cmd *qc)
2869 {
2870         struct ata_port *ap = qc->ap;
2871
2872         if (ata_should_dma_map(qc)) {
2873                 if (qc->flags & ATA_QCFLAG_SG) {
2874                         if (ata_sg_setup(qc))
2875                                 goto err_out;
2876                 } else if (qc->flags & ATA_QCFLAG_SINGLE) {
2877                         if (ata_sg_setup_one(qc))
2878                                 goto err_out;
2879                 }
2880         } else {
2881                 qc->flags &= ~ATA_QCFLAG_DMAMAP;
2882         }
2883
2884         ap->ops->qc_prep(qc);
2885
2886         qc->ap->active_tag = qc->tag;
2887         qc->flags |= ATA_QCFLAG_ACTIVE;
2888
2889         return ap->ops->qc_issue(qc);
2890
2891 err_out:
2892         return -1;
2893 }
2894
2895 /**
2896  *      ata_qc_issue_prot - issue taskfile to device in proto-dependent manner
2897  *      @qc: command to issue to device
2898  *
2899  *      Using various libata functions and hooks, this function
2900  *      starts an ATA command.  ATA commands are grouped into
2901  *      classes called "protocols", and issuing each type of protocol
2902  *      is slightly different.
2903  *
2904  *      LOCKING:
2905  *      spin_lock_irqsave(host_set lock)
2906  *
2907  *      RETURNS:
2908  *      Zero on success, negative on error.
2909  */
2910
2911 int ata_qc_issue_prot(struct ata_queued_cmd *qc)
2912 {
2913         struct ata_port *ap = qc->ap;
2914
2915         ata_dev_select(ap, qc->dev->devno, 1, 0);
2916
2917         switch (qc->tf.protocol) {
2918         case ATA_PROT_NODATA:
2919                 ata_tf_to_host_nolock(ap, &qc->tf);
2920                 break;
2921
2922         case ATA_PROT_DMA:
2923                 ap->ops->tf_load(ap, &qc->tf);   /* load tf registers */
2924                 ap->ops->bmdma_setup(qc);           /* set up bmdma */
2925                 ap->ops->bmdma_start(qc);           /* initiate bmdma */
2926                 break;
2927
2928         case ATA_PROT_PIO: /* load tf registers, initiate polling pio */
2929                 ata_qc_set_polling(qc);
2930                 ata_tf_to_host_nolock(ap, &qc->tf);
2931                 ap->pio_task_state = PIO_ST;
2932                 queue_work(ata_wq, &ap->pio_task);
2933                 break;
2934
2935         case ATA_PROT_ATAPI:
2936                 ata_qc_set_polling(qc);
2937                 ata_tf_to_host_nolock(ap, &qc->tf);
2938                 queue_work(ata_wq, &ap->packet_task);
2939                 break;
2940
2941         case ATA_PROT_ATAPI_NODATA:
2942                 ata_tf_to_host_nolock(ap, &qc->tf);
2943                 queue_work(ata_wq, &ap->packet_task);
2944                 break;
2945
2946         case ATA_PROT_ATAPI_DMA:
2947                 ap->ops->tf_load(ap, &qc->tf);   /* load tf registers */
2948                 ap->ops->bmdma_setup(qc);           /* set up bmdma */
2949                 queue_work(ata_wq, &ap->packet_task);
2950                 break;
2951
2952         default:
2953                 WARN_ON(1);
2954                 return -1;
2955         }
2956
2957         return 0;
2958 }
2959
2960 /**
2961  *      ata_bmdma_setup - Set up PCI IDE BMDMA transaction
2962  *      @qc: Info associated with this ATA transaction.
2963  *
2964  *      LOCKING:
2965  *      spin_lock_irqsave(host_set lock)
2966  */
2967
2968 static void ata_bmdma_setup_mmio (struct ata_queued_cmd *qc)
2969 {
2970         struct ata_port *ap = qc->ap;
2971         unsigned int rw = (qc->tf.flags & ATA_TFLAG_WRITE);
2972         u8 dmactl;
2973         void __iomem *mmio = (void __iomem *) ap->ioaddr.bmdma_addr;
2974
2975         /* load PRD table addr. */
2976         mb();   /* make sure PRD table writes are visible to controller */
2977         writel(ap->prd_dma, mmio + ATA_DMA_TABLE_OFS);
2978
2979         /* specify data direction, triple-check start bit is clear */
2980         dmactl = readb(mmio + ATA_DMA_CMD);
2981         dmactl &= ~(ATA_DMA_WR | ATA_DMA_START);
2982         if (!rw)
2983                 dmactl |= ATA_DMA_WR;
2984         writeb(dmactl, mmio + ATA_DMA_CMD);
2985
2986         /* issue r/w command */
2987         ap->ops->exec_command(ap, &qc->tf);
2988 }
2989
2990 /**
2991  *      ata_bmdma_start - Start a PCI IDE BMDMA transaction
2992  *      @qc: Info associated with this ATA transaction.
2993  *
2994  *      LOCKING:
2995  *      spin_lock_irqsave(host_set lock)
2996  */
2997
2998 static void ata_bmdma_start_mmio (struct ata_queued_cmd *qc)
2999 {
3000         struct ata_port *ap = qc->ap;
3001         void __iomem *mmio = (void __iomem *) ap->ioaddr.bmdma_addr;
3002         u8 dmactl;
3003
3004         /* start host DMA transaction */
3005         dmactl = readb(mmio + ATA_DMA_CMD);
3006         writeb(dmactl | ATA_DMA_START, mmio + ATA_DMA_CMD);
3007
3008         /* Strictly, one may wish to issue a readb() here, to
3009          * flush the mmio write.  However, control also passes
3010          * to the hardware at this point, and it will interrupt
3011          * us when we are to resume control.  So, in effect,
3012          * we don't care when the mmio write flushes.
3013          * Further, a read of the DMA status register _immediately_
3014          * following the write may not be what certain flaky hardware
3015          * is expected, so I think it is best to not add a readb()
3016          * without first all the MMIO ATA cards/mobos.
3017          * Or maybe I'm just being paranoid.
3018          */
3019 }
3020
3021 /**
3022  *      ata_bmdma_setup_pio - Set up PCI IDE BMDMA transaction (PIO)
3023  *      @qc: Info associated with this ATA transaction.
3024  *
3025  *      LOCKING:
3026  *      spin_lock_irqsave(host_set lock)
3027  */
3028
3029 static void ata_bmdma_setup_pio (struct ata_queued_cmd *qc)
3030 {
3031         struct ata_port *ap = qc->ap;
3032         unsigned int rw = (qc->tf.flags & ATA_TFLAG_WRITE);
3033         u8 dmactl;
3034
3035         /* load PRD table addr. */
3036         outl(ap->prd_dma, ap->ioaddr.bmdma_addr + ATA_DMA_TABLE_OFS);
3037
3038         /* specify data direction, triple-check start bit is clear */
3039         dmactl = inb(ap->ioaddr.bmdma_addr + ATA_DMA_CMD);
3040         dmactl &= ~(ATA_DMA_WR | ATA_DMA_START);
3041         if (!rw)
3042                 dmactl |= ATA_DMA_WR;
3043         outb(dmactl, ap->ioaddr.bmdma_addr + ATA_DMA_CMD);
3044
3045         /* issue r/w command */
3046         ap->ops->exec_command(ap, &qc->tf);
3047 }
3048
3049 /**
3050  *      ata_bmdma_start_pio - Start a PCI IDE BMDMA transaction (PIO)
3051  *      @qc: Info associated with this ATA transaction.
3052  *
3053  *      LOCKING:
3054  *      spin_lock_irqsave(host_set lock)
3055  */
3056
3057 static void ata_bmdma_start_pio (struct ata_queued_cmd *qc)
3058 {
3059         struct ata_port *ap = qc->ap;
3060         u8 dmactl;
3061
3062         /* start host DMA transaction */
3063         dmactl = inb(ap->ioaddr.bmdma_addr + ATA_DMA_CMD);
3064         outb(dmactl | ATA_DMA_START,
3065              ap->ioaddr.bmdma_addr + ATA_DMA_CMD);
3066 }
3067
3068 void ata_bmdma_start(struct ata_queued_cmd *qc)
3069 {
3070         if (qc->ap->flags & ATA_FLAG_MMIO)
3071                 ata_bmdma_start_mmio(qc);
3072         else
3073                 ata_bmdma_start_pio(qc);
3074 }
3075
3076 void ata_bmdma_setup(struct ata_queued_cmd *qc)
3077 {
3078         if (qc->ap->flags & ATA_FLAG_MMIO)
3079                 ata_bmdma_setup_mmio(qc);
3080         else
3081                 ata_bmdma_setup_pio(qc);
3082 }
3083
3084 void ata_bmdma_irq_clear(struct ata_port *ap)
3085 {
3086     if (ap->flags & ATA_FLAG_MMIO) {
3087         void __iomem *mmio = ((void __iomem *) ap->ioaddr.bmdma_addr) + ATA_DMA_STATUS;
3088         writeb(readb(mmio), mmio);
3089     } else {
3090         unsigned long addr = ap->ioaddr.bmdma_addr + ATA_DMA_STATUS;
3091         outb(inb(addr), addr);
3092     }
3093
3094 }
3095
3096 u8 ata_bmdma_status(struct ata_port *ap)
3097 {
3098         u8 host_stat;
3099         if (ap->flags & ATA_FLAG_MMIO) {
3100                 void __iomem *mmio = (void __iomem *) ap->ioaddr.bmdma_addr;
3101                 host_stat = readb(mmio + ATA_DMA_STATUS);
3102         } else
3103         host_stat = inb(ap->ioaddr.bmdma_addr + ATA_DMA_STATUS);
3104         return host_stat;
3105 }
3106
3107 void ata_bmdma_stop(struct ata_port *ap)
3108 {
3109         if (ap->flags & ATA_FLAG_MMIO) {
3110                 void __iomem *mmio = (void __iomem *) ap->ioaddr.bmdma_addr;
3111
3112                 /* clear start/stop bit */
3113                 writeb(readb(mmio + ATA_DMA_CMD) & ~ATA_DMA_START,
3114                         mmio + ATA_DMA_CMD);
3115         } else {
3116                 /* clear start/stop bit */
3117                 outb(inb(ap->ioaddr.bmdma_addr + ATA_DMA_CMD) & ~ATA_DMA_START,
3118                         ap->ioaddr.bmdma_addr + ATA_DMA_CMD);
3119         }
3120
3121         /* one-PIO-cycle guaranteed wait, per spec, for HDMA1:0 transition */
3122         ata_altstatus(ap);        /* dummy read */
3123 }
3124
3125 /**
3126  *      ata_host_intr - Handle host interrupt for given (port, task)
3127  *      @ap: Port on which interrupt arrived (possibly...)
3128  *      @qc: Taskfile currently active in engine
3129  *
3130  *      Handle host interrupt for given queued command.  Currently,
3131  *      only DMA interrupts are handled.  All other commands are
3132  *      handled via polling with interrupts disabled (nIEN bit).
3133  *
3134  *      LOCKING:
3135  *      spin_lock_irqsave(host_set lock)
3136  *
3137  *      RETURNS:
3138  *      One if interrupt was handled, zero if not (shared irq).
3139  */
3140
3141 inline unsigned int ata_host_intr (struct ata_port *ap,
3142                                    struct ata_queued_cmd *qc)
3143 {
3144         u8 status, host_stat;
3145
3146         switch (qc->tf.protocol) {
3147
3148         case ATA_PROT_DMA:
3149         case ATA_PROT_ATAPI_DMA:
3150         case ATA_PROT_ATAPI:
3151                 /* check status of DMA engine */
3152                 host_stat = ap->ops->bmdma_status(ap);
3153                 VPRINTK("ata%u: host_stat 0x%X\n", ap->id, host_stat);
3154
3155                 /* if it's not our irq... */
3156                 if (!(host_stat & ATA_DMA_INTR))
3157                         goto idle_irq;
3158
3159                 /* before we do anything else, clear DMA-Start bit */
3160                 ap->ops->bmdma_stop(ap);
3161
3162                 /* fall through */
3163
3164         case ATA_PROT_ATAPI_NODATA:
3165         case ATA_PROT_NODATA:
3166                 /* check altstatus */
3167                 status = ata_altstatus(ap);
3168                 if (status & ATA_BUSY)
3169                         goto idle_irq;
3170
3171                 /* check main status, clearing INTRQ */
3172                 status = ata_chk_status(ap);
3173                 if (unlikely(status & ATA_BUSY))
3174                         goto idle_irq;
3175                 DPRINTK("ata%u: protocol %d (dev_stat 0x%X)\n",
3176                         ap->id, qc->tf.protocol, status);
3177
3178                 /* ack bmdma irq events */
3179                 ap->ops->irq_clear(ap);
3180
3181                 /* complete taskfile transaction */
3182                 ata_qc_complete(qc, status);
3183                 break;
3184
3185         default:
3186                 goto idle_irq;
3187         }
3188
3189         return 1;       /* irq handled */
3190
3191 idle_irq:
3192         ap->stats.idle_irq++;
3193
3194 #ifdef ATA_IRQ_TRAP
3195         if ((ap->stats.idle_irq % 1000) == 0) {
3196                 handled = 1;
3197                 ata_irq_ack(ap, 0); /* debug trap */
3198                 printk(KERN_WARNING "ata%d: irq trap\n", ap->id);
3199         }
3200 #endif
3201         return 0;       /* irq not handled */
3202 }
3203
3204 /**
3205  *      ata_interrupt - Default ATA host interrupt handler
3206  *      @irq: irq line
3207  *      @dev_instance: pointer to our host information structure
3208  *      @regs: unused
3209  *
3210  *      LOCKING:
3211  *
3212  *      RETURNS:
3213  *
3214  */
3215
3216 irqreturn_t ata_interrupt (int irq, void *dev_instance, struct pt_regs *regs)
3217 {
3218         struct ata_host_set *host_set = dev_instance;
3219         unsigned int i;
3220         unsigned int handled = 0;
3221         unsigned long flags;
3222
3223         /* TODO: make _irqsave conditional on x86 PCI IDE legacy mode */
3224         spin_lock_irqsave(&host_set->lock, flags);
3225
3226         for (i = 0; i < host_set->n_ports; i++) {
3227                 struct ata_port *ap;
3228
3229                 ap = host_set->ports[i];
3230                 if (ap && (!(ap->flags & ATA_FLAG_PORT_DISABLED))) {
3231                         struct ata_queued_cmd *qc;
3232
3233                         qc = ata_qc_from_tag(ap, ap->active_tag);
3234                         if (qc && (!(qc->tf.ctl & ATA_NIEN)) &&
3235                             (qc->flags & ATA_QCFLAG_ACTIVE))
3236                                 handled |= ata_host_intr(ap, qc);
3237                 }
3238         }
3239
3240         spin_unlock_irqrestore(&host_set->lock, flags);
3241
3242         return IRQ_RETVAL(handled);
3243 }
3244
3245 /**
3246  *      atapi_packet_task - Write CDB bytes to hardware
3247  *      @_data: Port to which ATAPI device is attached.
3248  *
3249  *      When device has indicated its readiness to accept
3250  *      a CDB, this function is called.  Send the CDB.
3251  *      If DMA is to be performed, exit immediately.
3252  *      Otherwise, we are in polling mode, so poll
3253  *      status under operation succeeds or fails.
3254  *
3255  *      LOCKING:
3256  *      Kernel thread context (may sleep)
3257  */
3258
3259 static void atapi_packet_task(void *_data)
3260 {
3261         struct ata_port *ap = _data;
3262         struct ata_queued_cmd *qc;
3263         u8 status;
3264
3265         qc = ata_qc_from_tag(ap, ap->active_tag);
3266         assert(qc != NULL);
3267         assert(qc->flags & ATA_QCFLAG_ACTIVE);
3268
3269         /* sleep-wait for BSY to clear */
3270         DPRINTK("busy wait\n");
3271         if (ata_busy_sleep(ap, ATA_TMOUT_CDB_QUICK, ATA_TMOUT_CDB))
3272                 goto err_out;
3273
3274         /* make sure DRQ is set */
3275         status = ata_chk_status(ap);
3276         if ((status & (ATA_BUSY | ATA_DRQ)) != ATA_DRQ)
3277                 goto err_out;
3278
3279         /* send SCSI cdb */
3280         DPRINTK("send cdb\n");
3281         assert(ap->cdb_len >= 12);
3282         ata_data_xfer(ap, qc->cdb, ap->cdb_len, 1);
3283
3284         /* if we are DMA'ing, irq handler takes over from here */
3285         if (qc->tf.protocol == ATA_PROT_ATAPI_DMA)
3286                 ap->ops->bmdma_start(qc);           /* initiate bmdma */
3287
3288         /* non-data commands are also handled via irq */
3289         else if (qc->tf.protocol == ATA_PROT_ATAPI_NODATA) {
3290                 /* do nothing */
3291         }
3292
3293         /* PIO commands are handled by polling */
3294         else {
3295                 ap->pio_task_state = PIO_ST;
3296                 queue_work(ata_wq, &ap->pio_task);
3297         }
3298
3299         return;
3300
3301 err_out:
3302         ata_qc_complete(qc, ATA_ERR);
3303 }
3304
3305 int ata_port_start (struct ata_port *ap)
3306 {
3307         struct device *dev = ap->host_set->dev;
3308
3309         ap->prd = dma_alloc_coherent(dev, ATA_PRD_TBL_SZ, &ap->prd_dma, GFP_KERNEL);
3310         if (!ap->prd)
3311                 return -ENOMEM;
3312
3313         DPRINTK("prd alloc, virt %p, dma %llx\n", ap->prd, (unsigned long long) ap->prd_dma);
3314
3315         return 0;
3316 }
3317
3318 void ata_port_stop (struct ata_port *ap)
3319 {
3320         struct device *dev = ap->host_set->dev;
3321
3322         dma_free_coherent(dev, ATA_PRD_TBL_SZ, ap->prd, ap->prd_dma);
3323 }
3324
3325 void ata_host_stop (struct ata_host_set *host_set)
3326 {
3327         if (host_set->mmio_base)
3328                 iounmap(host_set->mmio_base);
3329 }
3330
3331
3332 /**
3333  *      ata_host_remove - Unregister SCSI host structure with upper layers
3334  *      @ap: Port to unregister
3335  *      @do_unregister: 1 if we fully unregister, 0 to just stop the port
3336  *
3337  *      LOCKING:
3338  */
3339
3340 static void ata_host_remove(struct ata_port *ap, unsigned int do_unregister)
3341 {
3342         struct Scsi_Host *sh = ap->host;
3343
3344         DPRINTK("ENTER\n");
3345
3346         if (do_unregister)
3347                 scsi_remove_host(sh);
3348
3349         ap->ops->port_stop(ap);
3350 }
3351
3352 /**
3353  *      ata_host_init - Initialize an ata_port structure
3354  *      @ap: Structure to initialize
3355  *      @host: associated SCSI mid-layer structure
3356  *      @host_set: Collection of hosts to which @ap belongs
3357  *      @ent: Probe information provided by low-level driver
3358  *      @port_no: Port number associated with this ata_port
3359  *
3360  *      LOCKING:
3361  *
3362  */
3363
3364 static void ata_host_init(struct ata_port *ap, struct Scsi_Host *host,
3365                           struct ata_host_set *host_set,
3366                           struct ata_probe_ent *ent, unsigned int port_no)
3367 {
3368         unsigned int i;
3369
3370         host->max_id = 16;
3371         host->max_lun = 1;
3372         host->max_channel = 1;
3373         host->unique_id = ata_unique_id++;
3374         host->max_cmd_len = 12;
3375         scsi_set_device(host, ent->dev);
3376         scsi_assign_lock(host, &host_set->lock);
3377
3378         ap->flags = ATA_FLAG_PORT_DISABLED;
3379         ap->id = host->unique_id;
3380         ap->host = host;
3381         ap->ctl = ATA_DEVCTL_OBS;
3382         ap->host_set = host_set;
3383         ap->port_no = port_no;
3384         ap->hard_port_no =
3385                 ent->legacy_mode ? ent->hard_port_no : port_no;
3386         ap->pio_mask = ent->pio_mask;
3387         ap->mwdma_mask = ent->mwdma_mask;
3388         ap->udma_mask = ent->udma_mask;
3389         ap->flags |= ent->host_flags;
3390         ap->ops = ent->port_ops;
3391         ap->cbl = ATA_CBL_NONE;
3392         ap->active_tag = ATA_TAG_POISON;
3393         ap->last_ctl = 0xFF;
3394
3395         INIT_WORK(&ap->packet_task, atapi_packet_task, ap);
3396         INIT_WORK(&ap->pio_task, ata_pio_task, ap);
3397
3398         for (i = 0; i < ATA_MAX_DEVICES; i++)
3399                 ap->device[i].devno = i;
3400
3401 #ifdef ATA_IRQ_TRAP
3402         ap->stats.unhandled_irq = 1;
3403         ap->stats.idle_irq = 1;
3404 #endif
3405
3406         memcpy(&ap->ioaddr, &ent->port[port_no], sizeof(struct ata_ioports));
3407 }
3408
3409 /**
3410  *      ata_host_add - Attach low-level ATA driver to system
3411  *      @ent: Information provided by low-level driver
3412  *      @host_set: Collections of ports to which we add
3413  *      @port_no: Port number associated with this host
3414  *
3415  *      LOCKING:
3416  *
3417  *      RETURNS:
3418  *
3419  */
3420
3421 static struct ata_port * ata_host_add(struct ata_probe_ent *ent,
3422                                       struct ata_host_set *host_set,
3423                                       unsigned int port_no)
3424 {
3425         struct Scsi_Host *host;
3426         struct ata_port *ap;
3427         int rc;
3428
3429         DPRINTK("ENTER\n");
3430         host = scsi_host_alloc(ent->sht, sizeof(struct ata_port));
3431         if (!host)
3432                 return NULL;
3433
3434         ap = (struct ata_port *) &host->hostdata[0];
3435
3436         ata_host_init(ap, host, host_set, ent, port_no);
3437
3438         rc = ap->ops->port_start(ap);
3439         if (rc)
3440                 goto err_out;
3441
3442         return ap;
3443
3444 err_out:
3445         scsi_host_put(host);
3446         return NULL;
3447 }
3448
3449 /**
3450  *      ata_device_add -
3451  *      @ent:
3452  *
3453  *      LOCKING:
3454  *
3455  *      RETURNS:
3456  *
3457  */
3458
3459 int ata_device_add(struct ata_probe_ent *ent)
3460 {
3461         unsigned int count = 0, i;
3462         struct device *dev = ent->dev;
3463         struct ata_host_set *host_set;
3464
3465         DPRINTK("ENTER\n");
3466         /* alloc a container for our list of ATA ports (buses) */
3467         host_set = kmalloc(sizeof(struct ata_host_set) +
3468                            (ent->n_ports * sizeof(void *)), GFP_KERNEL);
3469         if (!host_set)
3470                 return 0;
3471         memset(host_set, 0, sizeof(struct ata_host_set) + (ent->n_ports * sizeof(void *)));
3472         spin_lock_init(&host_set->lock);
3473
3474         host_set->dev = dev;
3475         host_set->n_ports = ent->n_ports;
3476         host_set->irq = ent->irq;
3477         host_set->mmio_base = ent->mmio_base;
3478         host_set->private_data = ent->private_data;
3479         host_set->ops = ent->port_ops;
3480
3481         /* register each port bound to this device */
3482         for (i = 0; i < ent->n_ports; i++) {
3483                 struct ata_port *ap;
3484                 unsigned long xfer_mode_mask;
3485
3486                 ap = ata_host_add(ent, host_set, i);
3487                 if (!ap)
3488                         goto err_out;
3489
3490                 host_set->ports[i] = ap;
3491                 xfer_mode_mask =(ap->udma_mask << ATA_SHIFT_UDMA) |
3492                                 (ap->mwdma_mask << ATA_SHIFT_MWDMA) |
3493                                 (ap->pio_mask << ATA_SHIFT_PIO);
3494
3495                 /* print per-port info to dmesg */
3496                 printk(KERN_INFO "ata%u: %cATA max %s cmd 0x%lX ctl 0x%lX "
3497                                  "bmdma 0x%lX irq %lu\n",
3498                         ap->id,
3499                         ap->flags & ATA_FLAG_SATA ? 'S' : 'P',
3500                         ata_mode_string(xfer_mode_mask),
3501                         ap->ioaddr.cmd_addr,
3502                         ap->ioaddr.ctl_addr,
3503                         ap->ioaddr.bmdma_addr,
3504                         ent->irq);
3505
3506                 ata_chk_status(ap);
3507                 host_set->ops->irq_clear(ap);
3508                 count++;
3509         }
3510
3511         if (!count) {
3512                 kfree(host_set);
3513                 return 0;
3514         }
3515
3516         /* obtain irq, that is shared between channels */
3517         if (request_irq(ent->irq, ent->port_ops->irq_handler, ent->irq_flags,
3518                         DRV_NAME, host_set))
3519                 goto err_out;
3520
3521         /* perform each probe synchronously */
3522         DPRINTK("probe begin\n");
3523         for (i = 0; i < count; i++) {
3524                 struct ata_port *ap;
3525                 int rc;
3526
3527                 ap = host_set->ports[i];
3528
3529                 DPRINTK("ata%u: probe begin\n", ap->id);
3530                 rc = ata_bus_probe(ap);
3531                 DPRINTK("ata%u: probe end\n", ap->id);
3532
3533                 if (rc) {
3534                         /* FIXME: do something useful here?
3535                          * Current libata behavior will
3536                          * tear down everything when
3537                          * the module is removed
3538                          * or the h/w is unplugged.
3539                          */
3540                 }
3541
3542                 rc = scsi_add_host(ap->host, dev);
3543                 if (rc) {
3544                         printk(KERN_ERR "ata%u: scsi_add_host failed\n",
3545                                ap->id);
3546                         /* FIXME: do something useful here */
3547                         /* FIXME: handle unconditional calls to
3548                          * scsi_scan_host and ata_host_remove, below,
3549                          * at the very least
3550                          */
3551                 }
3552         }
3553
3554         /* probes are done, now scan each port's disk(s) */
3555         DPRINTK("probe begin\n");
3556         for (i = 0; i < count; i++) {
3557                 struct ata_port *ap = host_set->ports[i];
3558
3559                 scsi_scan_host(ap->host);
3560         }
3561
3562         dev_set_drvdata(dev, host_set);
3563
3564         VPRINTK("EXIT, returning %u\n", ent->n_ports);
3565         return ent->n_ports; /* success */
3566
3567 err_out:
3568         for (i = 0; i < count; i++) {
3569                 ata_host_remove(host_set->ports[i], 1);
3570                 scsi_host_put(host_set->ports[i]->host);
3571         }
3572         kfree(host_set);
3573         VPRINTK("EXIT, returning 0\n");
3574         return 0;
3575 }
3576
3577 /**
3578  *      ata_scsi_release - SCSI layer callback hook for host unload
3579  *      @host: libata host to be unloaded
3580  *
3581  *      Performs all duties necessary to shut down a libata port...
3582  *      Kill port kthread, disable port, and release resources.
3583  *
3584  *      LOCKING:
3585  *      Inherited from SCSI layer.
3586  *
3587  *      RETURNS:
3588  *      One.
3589  */
3590
3591 int ata_scsi_release(struct Scsi_Host *host)
3592 {
3593         struct ata_port *ap = (struct ata_port *) &host->hostdata[0];
3594
3595         DPRINTK("ENTER\n");
3596
3597         ap->ops->port_disable(ap);
3598         ata_host_remove(ap, 0);
3599
3600         DPRINTK("EXIT\n");
3601         return 1;
3602 }
3603
3604 /**
3605  *      ata_std_ports - initialize ioaddr with standard port offsets.
3606  *      @ioaddr: IO address structure to be initialized
3607  */
3608 void ata_std_ports(struct ata_ioports *ioaddr)
3609 {
3610         ioaddr->data_addr = ioaddr->cmd_addr + ATA_REG_DATA;
3611         ioaddr->error_addr = ioaddr->cmd_addr + ATA_REG_ERR;
3612         ioaddr->feature_addr = ioaddr->cmd_addr + ATA_REG_FEATURE;
3613         ioaddr->nsect_addr = ioaddr->cmd_addr + ATA_REG_NSECT;
3614         ioaddr->lbal_addr = ioaddr->cmd_addr + ATA_REG_LBAL;
3615         ioaddr->lbam_addr = ioaddr->cmd_addr + ATA_REG_LBAM;
3616         ioaddr->lbah_addr = ioaddr->cmd_addr + ATA_REG_LBAH;
3617         ioaddr->device_addr = ioaddr->cmd_addr + ATA_REG_DEVICE;
3618         ioaddr->status_addr = ioaddr->cmd_addr + ATA_REG_STATUS;
3619         ioaddr->command_addr = ioaddr->cmd_addr + ATA_REG_CMD;
3620 }
3621
3622 static struct ata_probe_ent *
3623 ata_probe_ent_alloc(struct device *dev, struct ata_port_info *port)
3624 {
3625         struct ata_probe_ent *probe_ent;
3626
3627         probe_ent = kmalloc(sizeof(*probe_ent), GFP_KERNEL);
3628         if (!probe_ent) {
3629                 printk(KERN_ERR DRV_NAME "(%s): out of memory\n",
3630                        kobject_name(&(dev->kobj)));
3631                 return NULL;
3632         }
3633
3634         memset(probe_ent, 0, sizeof(*probe_ent));
3635
3636         INIT_LIST_HEAD(&probe_ent->node);
3637         probe_ent->dev = dev;
3638
3639         probe_ent->sht = port->sht;
3640         probe_ent->host_flags = port->host_flags;
3641         probe_ent->pio_mask = port->pio_mask;
3642         probe_ent->mwdma_mask = port->mwdma_mask;
3643         probe_ent->udma_mask = port->udma_mask;
3644         probe_ent->port_ops = port->port_ops;
3645
3646         return probe_ent;
3647 }
3648
3649 #ifdef CONFIG_PCI
3650 struct ata_probe_ent *
3651 ata_pci_init_native_mode(struct pci_dev *pdev, struct ata_port_info **port)
3652 {
3653         struct ata_probe_ent *probe_ent =
3654                 ata_probe_ent_alloc(pci_dev_to_dev(pdev), port[0]);
3655         if (!probe_ent)
3656                 return NULL;
3657
3658         probe_ent->n_ports = 2;
3659         probe_ent->irq = pdev->irq;
3660         probe_ent->irq_flags = SA_SHIRQ;
3661
3662         probe_ent->port[0].cmd_addr = pci_resource_start(pdev, 0);
3663         probe_ent->port[0].altstatus_addr =
3664         probe_ent->port[0].ctl_addr =
3665                 pci_resource_start(pdev, 1) | ATA_PCI_CTL_OFS;
3666         probe_ent->port[0].bmdma_addr = pci_resource_start(pdev, 4);
3667
3668         probe_ent->port[1].cmd_addr = pci_resource_start(pdev, 2);
3669         probe_ent->port[1].altstatus_addr =
3670         probe_ent->port[1].ctl_addr =
3671                 pci_resource_start(pdev, 3) | ATA_PCI_CTL_OFS;
3672         probe_ent->port[1].bmdma_addr = pci_resource_start(pdev, 4) + 8;
3673
3674         ata_std_ports(&probe_ent->port[0]);
3675         ata_std_ports(&probe_ent->port[1]);
3676
3677         return probe_ent;
3678 }
3679
3680 static struct ata_probe_ent *
3681 ata_pci_init_legacy_mode(struct pci_dev *pdev, struct ata_port_info **port,
3682     struct ata_probe_ent **ppe2)
3683 {
3684         struct ata_probe_ent *probe_ent, *probe_ent2;
3685
3686         probe_ent = ata_probe_ent_alloc(pci_dev_to_dev(pdev), port[0]);
3687         if (!probe_ent)
3688                 return NULL;
3689         probe_ent2 = ata_probe_ent_alloc(pci_dev_to_dev(pdev), port[1]);
3690         if (!probe_ent2) {
3691                 kfree(probe_ent);
3692                 return NULL;
3693         }
3694
3695         probe_ent->n_ports = 1;
3696         probe_ent->irq = 14;
3697
3698         probe_ent->hard_port_no = 0;
3699         probe_ent->legacy_mode = 1;
3700
3701         probe_ent2->n_ports = 1;
3702         probe_ent2->irq = 15;
3703
3704         probe_ent2->hard_port_no = 1;
3705         probe_ent2->legacy_mode = 1;
3706
3707         probe_ent->port[0].cmd_addr = 0x1f0;
3708         probe_ent->port[0].altstatus_addr =
3709         probe_ent->port[0].ctl_addr = 0x3f6;
3710         probe_ent->port[0].bmdma_addr = pci_resource_start(pdev, 4);
3711
3712         probe_ent2->port[0].cmd_addr = 0x170;
3713         probe_ent2->port[0].altstatus_addr =
3714         probe_ent2->port[0].ctl_addr = 0x376;
3715         probe_ent2->port[0].bmdma_addr = pci_resource_start(pdev, 4)+8;
3716
3717         ata_std_ports(&probe_ent->port[0]);
3718         ata_std_ports(&probe_ent2->port[0]);
3719
3720         *ppe2 = probe_ent2;
3721         return probe_ent;
3722 }
3723
3724 /**
3725  *      ata_pci_init_one - Initialize/register PCI IDE host controller
3726  *      @pdev: Controller to be initialized
3727  *      @port_info: Information from low-level host driver
3728  *      @n_ports: Number of ports attached to host controller
3729  *
3730  *      LOCKING:
3731  *      Inherited from PCI layer (may sleep).
3732  *
3733  *      RETURNS:
3734  *
3735  */
3736
3737 int ata_pci_init_one (struct pci_dev *pdev, struct ata_port_info **port_info,
3738                       unsigned int n_ports)
3739 {
3740         struct ata_probe_ent *probe_ent, *probe_ent2 = NULL;
3741         struct ata_port_info *port[2];
3742         u8 tmp8, mask;
3743         unsigned int legacy_mode = 0;
3744         int disable_dev_on_err = 1;
3745         int rc;
3746
3747         DPRINTK("ENTER\n");
3748
3749         port[0] = port_info[0];
3750         if (n_ports > 1)
3751                 port[1] = port_info[1];
3752         else
3753                 port[1] = port[0];
3754
3755         if ((port[0]->host_flags & ATA_FLAG_NO_LEGACY) == 0
3756             && (pdev->class >> 8) == PCI_CLASS_STORAGE_IDE) {
3757                 /* TODO: support transitioning to native mode? */
3758                 pci_read_config_byte(pdev, PCI_CLASS_PROG, &tmp8);
3759                 mask = (1 << 2) | (1 << 0);
3760                 if ((tmp8 & mask) != mask)
3761                         legacy_mode = (1 << 3);
3762         }
3763
3764         /* FIXME... */
3765         if ((!legacy_mode) && (n_ports > 1)) {
3766                 printk(KERN_ERR "ata: BUG: native mode, n_ports > 1\n");
3767                 return -EINVAL;
3768         }
3769
3770         rc = pci_enable_device(pdev);
3771         if (rc)
3772                 return rc;
3773
3774         rc = pci_request_regions(pdev, DRV_NAME);
3775         if (rc) {
3776                 disable_dev_on_err = 0;
3777                 goto err_out;
3778         }
3779
3780         if (legacy_mode) {
3781                 if (!request_region(0x1f0, 8, "libata")) {
3782                         struct resource *conflict, res;
3783                         res.start = 0x1f0;
3784                         res.end = 0x1f0 + 8 - 1;
3785                         conflict = ____request_resource(&ioport_resource, &res);
3786                         if (!strcmp(conflict->name, "libata"))
3787                                 legacy_mode |= (1 << 0);
3788                         else {
3789                                 disable_dev_on_err = 0;
3790                                 printk(KERN_WARNING "ata: 0x1f0 IDE port busy\n");
3791                         }
3792                 } else
3793                         legacy_mode |= (1 << 0);
3794
3795                 if (!request_region(0x170, 8, "libata")) {
3796                         struct resource *conflict, res;
3797                         res.start = 0x170;
3798                         res.end = 0x170 + 8 - 1;
3799                         conflict = ____request_resource(&ioport_resource, &res);
3800                         if (!strcmp(conflict->name, "libata"))
3801                                 legacy_mode |= (1 << 1);
3802                         else {
3803                                 disable_dev_on_err = 0;
3804                                 printk(KERN_WARNING "ata: 0x170 IDE port busy\n");
3805                         }
3806                 } else
3807                         legacy_mode |= (1 << 1);
3808         }
3809
3810         /* we have legacy mode, but all ports are unavailable */
3811         if (legacy_mode == (1 << 3)) {
3812                 rc = -EBUSY;
3813                 goto err_out_regions;
3814         }
3815
3816         rc = pci_set_dma_mask(pdev, ATA_DMA_MASK);
3817         if (rc)
3818                 goto err_out_regions;
3819         rc = pci_set_consistent_dma_mask(pdev, ATA_DMA_MASK);
3820         if (rc)
3821                 goto err_out_regions;
3822
3823         if (legacy_mode) {
3824                 probe_ent = ata_pci_init_legacy_mode(pdev, port, &probe_ent2);
3825         } else
3826                 probe_ent = ata_pci_init_native_mode(pdev, port);
3827         if (!probe_ent) {
3828                 rc = -ENOMEM;
3829                 goto err_out_regions;
3830         }
3831
3832         pci_set_master(pdev);
3833
3834         /* FIXME: check ata_device_add return */
3835         if (legacy_mode) {
3836                 if (legacy_mode & (1 << 0))
3837                         ata_device_add(probe_ent);
3838                 if (legacy_mode & (1 << 1))
3839                         ata_device_add(probe_ent2);
3840         } else
3841                 ata_device_add(probe_ent);
3842
3843         kfree(probe_ent);
3844         kfree(probe_ent2);
3845
3846         return 0;
3847
3848 err_out_regions:
3849         if (legacy_mode & (1 << 0))
3850                 release_region(0x1f0, 8);
3851         if (legacy_mode & (1 << 1))
3852                 release_region(0x170, 8);
3853         pci_release_regions(pdev);
3854 err_out:
3855         if (disable_dev_on_err)
3856                 pci_disable_device(pdev);
3857         return rc;
3858 }
3859
3860 /**
3861  *      ata_pci_remove_one - PCI layer callback for device removal
3862  *      @pdev: PCI device that was removed
3863  *
3864  *      PCI layer indicates to libata via this hook that
3865  *      hot-unplug or module unload event has occured.
3866  *      Handle this by unregistering all objects associated
3867  *      with this PCI device.  Free those objects.  Then finally
3868  *      release PCI resources and disable device.
3869  *
3870  *      LOCKING:
3871  *      Inherited from PCI layer (may sleep).
3872  */
3873
3874 void ata_pci_remove_one (struct pci_dev *pdev)
3875 {
3876         struct device *dev = pci_dev_to_dev(pdev);
3877         struct ata_host_set *host_set = dev_get_drvdata(dev);
3878         struct ata_port *ap;
3879         unsigned int i;
3880
3881         for (i = 0; i < host_set->n_ports; i++) {
3882                 ap = host_set->ports[i];
3883
3884                 scsi_remove_host(ap->host);
3885         }
3886
3887         free_irq(host_set->irq, host_set);
3888
3889         for (i = 0; i < host_set->n_ports; i++) {
3890                 ap = host_set->ports[i];
3891
3892                 ata_scsi_release(ap->host);
3893
3894                 if ((ap->flags & ATA_FLAG_NO_LEGACY) == 0) {
3895                         struct ata_ioports *ioaddr = &ap->ioaddr;
3896
3897                         if (ioaddr->cmd_addr == 0x1f0)
3898                                 release_region(0x1f0, 8);
3899                         else if (ioaddr->cmd_addr == 0x170)
3900                                 release_region(0x170, 8);
3901                 }
3902
3903                 scsi_host_put(ap->host);
3904         }
3905
3906         if (host_set->ops->host_stop)
3907                 host_set->ops->host_stop(host_set);
3908
3909         kfree(host_set);
3910
3911         pci_release_regions(pdev);
3912         pci_disable_device(pdev);
3913         dev_set_drvdata(dev, NULL);
3914 }
3915
3916 /* move to PCI subsystem */
3917 int pci_test_config_bits(struct pci_dev *pdev, struct pci_bits *bits)
3918 {
3919         unsigned long tmp = 0;
3920
3921         switch (bits->width) {
3922         case 1: {
3923                 u8 tmp8 = 0;
3924                 pci_read_config_byte(pdev, bits->reg, &tmp8);
3925                 tmp = tmp8;
3926                 break;
3927         }
3928         case 2: {
3929                 u16 tmp16 = 0;
3930                 pci_read_config_word(pdev, bits->reg, &tmp16);
3931                 tmp = tmp16;
3932                 break;
3933         }
3934         case 4: {
3935                 u32 tmp32 = 0;
3936                 pci_read_config_dword(pdev, bits->reg, &tmp32);
3937                 tmp = tmp32;
3938                 break;
3939         }
3940
3941         default:
3942                 return -EINVAL;
3943         }
3944
3945         tmp &= bits->mask;
3946
3947         return (tmp == bits->val) ? 1 : 0;
3948 }
3949 #endif /* CONFIG_PCI */
3950
3951
3952 /**
3953  *      ata_init -
3954  *
3955  *      LOCKING:
3956  *
3957  *      RETURNS:
3958  *
3959  */
3960
3961 static int __init ata_init(void)
3962 {
3963         ata_wq = create_workqueue("ata");
3964         if (!ata_wq)
3965                 return -ENOMEM;
3966
3967         printk(KERN_DEBUG "libata version " DRV_VERSION " loaded.\n");
3968         return 0;
3969 }
3970
3971 static void __exit ata_exit(void)
3972 {
3973         destroy_workqueue(ata_wq);
3974 }
3975
3976 module_init(ata_init);
3977 module_exit(ata_exit);
3978
3979 /*
3980  * libata is essentially a library of internal helper functions for
3981  * low-level ATA host controller drivers.  As such, the API/ABI is
3982  * likely to change as new drivers are added and updated.
3983  * Do not depend on ABI/API stability.
3984  */
3985
3986 EXPORT_SYMBOL_GPL(ata_std_bios_param);
3987 EXPORT_SYMBOL_GPL(ata_std_ports);
3988 EXPORT_SYMBOL_GPL(ata_device_add);
3989 EXPORT_SYMBOL_GPL(ata_sg_init);
3990 EXPORT_SYMBOL_GPL(ata_sg_init_one);
3991 EXPORT_SYMBOL_GPL(ata_qc_complete);
3992 EXPORT_SYMBOL_GPL(ata_qc_issue_prot);
3993 EXPORT_SYMBOL_GPL(ata_eng_timeout);
3994 EXPORT_SYMBOL_GPL(ata_tf_load);
3995 EXPORT_SYMBOL_GPL(ata_tf_read);
3996 EXPORT_SYMBOL_GPL(ata_noop_dev_select);
3997 EXPORT_SYMBOL_GPL(ata_std_dev_select);
3998 EXPORT_SYMBOL_GPL(ata_tf_to_fis);
3999 EXPORT_SYMBOL_GPL(ata_tf_from_fis);
4000 EXPORT_SYMBOL_GPL(ata_check_status);
4001 EXPORT_SYMBOL_GPL(ata_altstatus);
4002 EXPORT_SYMBOL_GPL(ata_chk_err);
4003 EXPORT_SYMBOL_GPL(ata_exec_command);
4004 EXPORT_SYMBOL_GPL(ata_port_start);
4005 EXPORT_SYMBOL_GPL(ata_port_stop);
4006 EXPORT_SYMBOL_GPL(ata_host_stop);
4007 EXPORT_SYMBOL_GPL(ata_interrupt);
4008 EXPORT_SYMBOL_GPL(ata_qc_prep);
4009 EXPORT_SYMBOL_GPL(ata_bmdma_setup);
4010 EXPORT_SYMBOL_GPL(ata_bmdma_start);
4011 EXPORT_SYMBOL_GPL(ata_bmdma_irq_clear);
4012 EXPORT_SYMBOL_GPL(ata_bmdma_status);
4013 EXPORT_SYMBOL_GPL(ata_bmdma_stop);
4014 EXPORT_SYMBOL_GPL(ata_port_probe);
4015 EXPORT_SYMBOL_GPL(sata_phy_reset);
4016 EXPORT_SYMBOL_GPL(__sata_phy_reset);
4017 EXPORT_SYMBOL_GPL(ata_bus_reset);
4018 EXPORT_SYMBOL_GPL(ata_port_disable);
4019 EXPORT_SYMBOL_GPL(ata_scsi_ioctl);
4020 EXPORT_SYMBOL_GPL(ata_scsi_queuecmd);
4021 EXPORT_SYMBOL_GPL(ata_scsi_error);
4022 EXPORT_SYMBOL_GPL(ata_scsi_slave_config);
4023 EXPORT_SYMBOL_GPL(ata_scsi_release);
4024 EXPORT_SYMBOL_GPL(ata_host_intr);
4025 EXPORT_SYMBOL_GPL(ata_dev_classify);
4026 EXPORT_SYMBOL_GPL(ata_dev_id_string);
4027 EXPORT_SYMBOL_GPL(ata_scsi_simulate);
4028
4029 #ifdef CONFIG_PCI
4030 EXPORT_SYMBOL_GPL(pci_test_config_bits);
4031 EXPORT_SYMBOL_GPL(ata_pci_init_native_mode);
4032 EXPORT_SYMBOL_GPL(ata_pci_init_one);
4033 EXPORT_SYMBOL_GPL(ata_pci_remove_one);
4034 #endif /* CONFIG_PCI */