Merge master.kernel.org:/pub/scm/linux/kernel/git/bart/ide-2.6
[pandora-kernel.git] / arch / x86 / kernel / pci-dma_64.c
1 /*
2  * Dynamic DMA mapping support.
3  */
4
5 #include <linux/types.h>
6 #include <linux/mm.h>
7 #include <linux/string.h>
8 #include <linux/pci.h>
9 #include <linux/module.h>
10 #include <asm/io.h>
11 #include <asm/iommu.h>
12 #include <asm/calgary.h>
13
14 int iommu_merge __read_mostly = 1;
15 EXPORT_SYMBOL(iommu_merge);
16
17 dma_addr_t bad_dma_address __read_mostly;
18 EXPORT_SYMBOL(bad_dma_address);
19
20 /* This tells the BIO block layer to assume merging. Default to off
21    because we cannot guarantee merging later. */
22 int iommu_bio_merge __read_mostly = 0;
23 EXPORT_SYMBOL(iommu_bio_merge);
24
25 static int iommu_sac_force __read_mostly = 0;
26
27 int no_iommu __read_mostly;
28 #ifdef CONFIG_IOMMU_DEBUG
29 int panic_on_overflow __read_mostly = 1;
30 int force_iommu __read_mostly = 1;
31 #else
32 int panic_on_overflow __read_mostly = 0;
33 int force_iommu __read_mostly= 0;
34 #endif
35
36 /* Set this to 1 if there is a HW IOMMU in the system */
37 int iommu_detected __read_mostly = 0;
38
39 /* Dummy device used for NULL arguments (normally ISA). Better would
40    be probably a smaller DMA mask, but this is bug-to-bug compatible
41    to i386. */
42 struct device fallback_dev = {
43         .bus_id = "fallback device",
44         .coherent_dma_mask = DMA_32BIT_MASK,
45         .dma_mask = &fallback_dev.coherent_dma_mask,
46 };
47
48 /* Allocate DMA memory on node near device */
49 noinline static void *
50 dma_alloc_pages(struct device *dev, gfp_t gfp, unsigned order)
51 {
52         struct page *page;
53         int node;
54
55         node = dev_to_node(dev);
56         if (node == -1)
57                 node = numa_node_id();
58
59         if (node < first_node(node_online_map))
60                 node = first_node(node_online_map);
61
62         page = alloc_pages_node(node, gfp, order);
63         return page ? page_address(page) : NULL;
64 }
65
66 /*
67  * Allocate memory for a coherent mapping.
68  */
69 void *
70 dma_alloc_coherent(struct device *dev, size_t size, dma_addr_t *dma_handle,
71                    gfp_t gfp)
72 {
73         void *memory;
74         unsigned long dma_mask = 0;
75         u64 bus;
76
77         if (!dev)
78                 dev = &fallback_dev;
79         dma_mask = dev->coherent_dma_mask;
80         if (dma_mask == 0)
81                 dma_mask = DMA_32BIT_MASK;
82
83         /* Device not DMA able */
84         if (dev->dma_mask == NULL)
85                 return NULL;
86
87         /* Don't invoke OOM killer */
88         gfp |= __GFP_NORETRY;
89
90         /* Kludge to make it bug-to-bug compatible with i386. i386
91            uses the normal dma_mask for alloc_coherent. */
92         dma_mask &= *dev->dma_mask;
93
94         /* Why <=? Even when the mask is smaller than 4GB it is often
95            larger than 16MB and in this case we have a chance of
96            finding fitting memory in the next higher zone first. If
97            not retry with true GFP_DMA. -AK */
98         if (dma_mask <= DMA_32BIT_MASK)
99                 gfp |= GFP_DMA32;
100
101  again:
102         memory = dma_alloc_pages(dev, gfp, get_order(size));
103         if (memory == NULL)
104                 return NULL;
105
106         {
107                 int high, mmu;
108                 bus = virt_to_bus(memory);
109                 high = (bus + size) >= dma_mask;
110                 mmu = high;
111                 if (force_iommu && !(gfp & GFP_DMA))
112                         mmu = 1;
113                 else if (high) {
114                         free_pages((unsigned long)memory,
115                                    get_order(size));
116
117                         /* Don't use the 16MB ZONE_DMA unless absolutely
118                            needed. It's better to use remapping first. */
119                         if (dma_mask < DMA_32BIT_MASK && !(gfp & GFP_DMA)) {
120                                 gfp = (gfp & ~GFP_DMA32) | GFP_DMA;
121                                 goto again;
122                         }
123
124                         /* Let low level make its own zone decisions */
125                         gfp &= ~(GFP_DMA32|GFP_DMA);
126
127                         if (dma_ops->alloc_coherent)
128                                 return dma_ops->alloc_coherent(dev, size,
129                                                            dma_handle, gfp);
130                         return NULL;
131                 }
132
133                 memset(memory, 0, size);
134                 if (!mmu) {
135                         *dma_handle = virt_to_bus(memory);
136                         return memory;
137                 }
138         }
139
140         if (dma_ops->alloc_coherent) {
141                 free_pages((unsigned long)memory, get_order(size));
142                 gfp &= ~(GFP_DMA|GFP_DMA32);
143                 return dma_ops->alloc_coherent(dev, size, dma_handle, gfp);
144         }
145
146         if (dma_ops->map_simple) {
147                 *dma_handle = dma_ops->map_simple(dev, memory,
148                                               size,
149                                               PCI_DMA_BIDIRECTIONAL);
150                 if (*dma_handle != bad_dma_address)
151                         return memory;
152         }
153
154         if (panic_on_overflow)
155                 panic("dma_alloc_coherent: IOMMU overflow by %lu bytes\n",size);
156         free_pages((unsigned long)memory, get_order(size));
157         return NULL;
158 }
159 EXPORT_SYMBOL(dma_alloc_coherent);
160
161 /*
162  * Unmap coherent memory.
163  * The caller must ensure that the device has finished accessing the mapping.
164  */
165 void dma_free_coherent(struct device *dev, size_t size,
166                          void *vaddr, dma_addr_t bus)
167 {
168         WARN_ON(irqs_disabled());       /* for portability */
169         if (dma_ops->unmap_single)
170                 dma_ops->unmap_single(dev, bus, size, 0);
171         free_pages((unsigned long)vaddr, get_order(size));
172 }
173 EXPORT_SYMBOL(dma_free_coherent);
174
175 static int forbid_dac __read_mostly;
176
177 int dma_supported(struct device *dev, u64 mask)
178 {
179 #ifdef CONFIG_PCI
180         if (mask > 0xffffffff && forbid_dac > 0) {
181
182
183
184                 printk(KERN_INFO "PCI: Disallowing DAC for device %s\n", dev->bus_id);
185                 return 0;
186         }
187 #endif
188
189         if (dma_ops->dma_supported)
190                 return dma_ops->dma_supported(dev, mask);
191
192         /* Copied from i386. Doesn't make much sense, because it will
193            only work for pci_alloc_coherent.
194            The caller just has to use GFP_DMA in this case. */
195         if (mask < DMA_24BIT_MASK)
196                 return 0;
197
198         /* Tell the device to use SAC when IOMMU force is on.  This
199            allows the driver to use cheaper accesses in some cases.
200
201            Problem with this is that if we overflow the IOMMU area and
202            return DAC as fallback address the device may not handle it
203            correctly.
204
205            As a special case some controllers have a 39bit address
206            mode that is as efficient as 32bit (aic79xx). Don't force
207            SAC for these.  Assume all masks <= 40 bits are of this
208            type. Normally this doesn't make any difference, but gives
209            more gentle handling of IOMMU overflow. */
210         if (iommu_sac_force && (mask >= DMA_40BIT_MASK)) {
211                 printk(KERN_INFO "%s: Force SAC with mask %Lx\n", dev->bus_id,mask);
212                 return 0;
213         }
214
215         return 1;
216 }
217 EXPORT_SYMBOL(dma_supported);
218
219 int dma_set_mask(struct device *dev, u64 mask)
220 {
221         if (!dev->dma_mask || !dma_supported(dev, mask))
222                 return -EIO;
223         *dev->dma_mask = mask;
224         return 0;
225 }
226 EXPORT_SYMBOL(dma_set_mask);
227
228 /*
229  * See <Documentation/x86_64/boot-options.txt> for the iommu kernel parameter
230  * documentation.
231  */
232 __init int iommu_setup(char *p)
233 {
234         iommu_merge = 1;
235
236         if (!p)
237                 return -EINVAL;
238
239         while (*p) {
240                 if (!strncmp(p,"off",3))
241                         no_iommu = 1;
242                 /* gart_parse_options has more force support */
243                 if (!strncmp(p,"force",5))
244                         force_iommu = 1;
245                 if (!strncmp(p,"noforce",7)) {
246                         iommu_merge = 0;
247                         force_iommu = 0;
248                 }
249
250                 if (!strncmp(p, "biomerge",8)) {
251                         iommu_bio_merge = 4096;
252                         iommu_merge = 1;
253                         force_iommu = 1;
254                 }
255                 if (!strncmp(p, "panic",5))
256                         panic_on_overflow = 1;
257                 if (!strncmp(p, "nopanic",7))
258                         panic_on_overflow = 0;
259                 if (!strncmp(p, "merge",5)) {
260                         iommu_merge = 1;
261                         force_iommu = 1;
262                 }
263                 if (!strncmp(p, "nomerge",7))
264                         iommu_merge = 0;
265                 if (!strncmp(p, "forcesac",8))
266                         iommu_sac_force = 1;
267                 if (!strncmp(p, "allowdac", 8))
268                         forbid_dac = 0;
269                 if (!strncmp(p, "nodac", 5))
270                         forbid_dac = -1;
271
272 #ifdef CONFIG_SWIOTLB
273                 if (!strncmp(p, "soft",4))
274                         swiotlb = 1;
275 #endif
276
277 #ifdef CONFIG_IOMMU
278                 gart_parse_options(p);
279 #endif
280
281 #ifdef CONFIG_CALGARY_IOMMU
282                 if (!strncmp(p, "calgary", 7))
283                         use_calgary = 1;
284 #endif /* CONFIG_CALGARY_IOMMU */
285
286                 p += strcspn(p, ",");
287                 if (*p == ',')
288                         ++p;
289         }
290         return 0;
291 }
292 early_param("iommu", iommu_setup);
293
294 void __init pci_iommu_alloc(void)
295 {
296         /*
297          * The order of these functions is important for
298          * fall-back/fail-over reasons
299          */
300 #ifdef CONFIG_IOMMU
301         iommu_hole_init();
302 #endif
303
304 #ifdef CONFIG_CALGARY_IOMMU
305         detect_calgary();
306 #endif
307
308 #ifdef CONFIG_SWIOTLB
309         pci_swiotlb_init();
310 #endif
311 }
312
313 static int __init pci_iommu_init(void)
314 {
315 #ifdef CONFIG_CALGARY_IOMMU
316         calgary_iommu_init();
317 #endif
318
319 #ifdef CONFIG_IOMMU
320         gart_iommu_init();
321 #endif
322
323         no_iommu_init();
324         return 0;
325 }
326
327 void pci_iommu_shutdown(void)
328 {
329         gart_iommu_shutdown();
330 }
331
332 #ifdef CONFIG_PCI
333 /* Many VIA bridges seem to corrupt data for DAC. Disable it here */
334
335 static __devinit void via_no_dac(struct pci_dev *dev)
336 {
337         if ((dev->class >> 8) == PCI_CLASS_BRIDGE_PCI && forbid_dac == 0) {
338                 printk(KERN_INFO "PCI: VIA PCI bridge detected. Disabling DAC.\n");
339                 forbid_dac = 1;
340         }
341 }
342 DECLARE_PCI_FIXUP_FINAL(PCI_VENDOR_ID_VIA, PCI_ANY_ID, via_no_dac);
343 #endif
344 /* Must execute after PCI subsystem */
345 fs_initcall(pci_iommu_init);