Merge branch 'linux-next' of git://git.kernel.org/pub/scm/linux/kernel/git/jbarnes...
authorLinus Torvalds <torvalds@linux-foundation.org>
Wed, 1 Apr 2009 16:47:12 +0000 (09:47 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Wed, 1 Apr 2009 16:47:12 +0000 (09:47 -0700)
* 'linux-next' of git://git.kernel.org/pub/scm/linux/kernel/git/jbarnes/pci-2.6: (88 commits)
  PCI: fix HT MSI mapping fix
  PCI: don't enable too much HT MSI mapping
  x86/PCI: make pci=lastbus=255 work when acpi is on
  PCI: save and restore PCIe 2.0 registers
  PCI: update fakephp for bus_id removal
  PCI: fix kernel oops on bridge removal
  PCI: fix conflict between SR-IOV and config space sizing
  powerpc/PCI: include pci.h in powerpc MSI implementation
  PCI Hotplug: schedule fakephp for feature removal
  PCI Hotplug: rename legacy_fakephp to fakephp
  PCI Hotplug: restore fakephp interface with complete reimplementation
  PCI: Introduce /sys/bus/pci/devices/.../rescan
  PCI: Introduce /sys/bus/pci/devices/.../remove
  PCI: Introduce /sys/bus/pci/rescan
  PCI: Introduce pci_rescan_bus()
  PCI: do not enable bridges more than once
  PCI: do not initialize bridges more than once
  PCI: always scan child buses
  PCI: pci_scan_slot() returns newly found devices
  PCI: don't scan existing devices
  ...

Fix trivial append-only conflict in Documentation/feature-removal-schedule.txt

12 files changed:
1  2 
Documentation/feature-removal-schedule.txt
Documentation/kernel-parameters.txt
arch/x86/kernel/apic/io_apic.c
arch/x86/kernel/pci-dma.c
arch/x86/pci/fixup.c
drivers/pci/intel-iommu.c
drivers/pci/pci-driver.c
drivers/pci/pci.c
drivers/pci/pci.h
include/linux/acpi.h
include/linux/pci.h
include/linux/pci_ids.h

@@@ -6,47 -6,20 +6,47 @@@ be removed from this file
  
  ---------------------------
  
 -What: old static regulatory information and ieee80211_regdom module parameter
 -When: 2.6.29
 +What: The ieee80211_regdom module parameter
 +When: March 2010 / desktop catchup
 +
 +Why:  This was inherited by the CONFIG_WIRELESS_OLD_REGULATORY code,
 +      and currently serves as an option for users to define an
 +      ISO / IEC 3166 alpha2 code for the country they are currently
 +      present in. Although there are userspace API replacements for this
 +      through nl80211 distributions haven't yet caught up with implementing
 +      decent alternatives through standard GUIs. Although available as an
 +      option through iw or wpa_supplicant its just a matter of time before
 +      distributions pick up good GUI options for this. The ideal solution
 +      would actually consist of intelligent designs which would do this for
 +      the user automatically even when travelling through different countries.
 +      Until then we leave this module parameter as a compromise.
 +
 +      When userspace improves with reasonable widely-available alternatives for
 +      this we will no longer need this module parameter. This entry hopes that
 +      by the super-futuristically looking date of "March 2010" we will have
 +      such replacements widely available.
 +
 +Who:  Luis R. Rodriguez <lrodriguez@atheros.com>
 +
 +---------------------------
 +
 +What: CONFIG_WIRELESS_OLD_REGULATORY - old static regulatory information
 +When: March 2010 / desktop catchup
 +
  Why:  The old regulatory infrastructure has been replaced with a new one
        which does not require statically defined regulatory domains. We do
        not want to keep static regulatory domains in the kernel due to the
        the dynamic nature of regulatory law and localization. We kept around
        the old static definitions for the regulatory domains of:
 +
                * US
                * JP
                * EU
 +
        and used by default the US when CONFIG_WIRELESS_OLD_REGULATORY was
 -      set. We also kept around the ieee80211_regdom module parameter in case
 -      some applications were relying on it. Changing regulatory domains
 -      can now be done instead by using nl80211, as is done with iw.
 +      set. We will remove this option once the standard Linux desktop catches
 +      up with the new userspace APIs we have implemented.
 +
  Who:  Luis R. Rodriguez <lrodriguez@atheros.com>
  
  ---------------------------
@@@ -64,10 -37,10 +64,10 @@@ Who:       Pavel Machek <pavel@suse.cz
  
  ---------------------------
  
 -What: Video4Linux API 1 ioctls and video_decoder.h from Video devices.
 -When: December 2008
 -Files:        include/linux/video_decoder.h include/linux/videodev.h
 -Check:        include/linux/video_decoder.h include/linux/videodev.h
 +What: Video4Linux API 1 ioctls and from Video devices.
 +When: July 2009
 +Files:        include/linux/videodev.h
 +Check:        include/linux/videodev.h
  Why:  V4L1 AP1 was replaced by V4L2 API during migration from 2.4 to 2.6
        series. The old API have lots of drawbacks and don't provide enough
        means to work with all video and audio standards. The newer API is
@@@ -256,9 -229,7 +256,9 @@@ Who:       Jan Engelhardt <jengelh@computergm
  ---------------------------
  
  What: b43 support for firmware revision < 410
 -When: July 2008
 +When: The schedule was July 2008, but it was decided that we are going to keep the
 +        code as long as there are no major maintanance headaches.
 +      So it _could_ be removed _any_ time now, if it conflicts with something new.
  Why:  The support code for the old firmware hurts code readability/maintainability
        and slightly hurts runtime performance. Bugfixes for the old firmware
        are not provided by Broadcom anymore.
@@@ -311,18 -282,6 +311,18 @@@ Who:     Vlad Yasevich <vladislav.yasevich@
  
  ---------------------------
  
 +What: Ability for non root users to shm_get hugetlb pages based on mlock
 +      resource limits
 +When: 2.6.31
 +Why:  Non root users need to be part of /proc/sys/vm/hugetlb_shm_group or
 +      have CAP_IPC_LOCK to be able to allocate shm segments backed by
 +      huge pages.  The mlock based rlimit check to allow shm hugetlb is
 +      inconsistent with mmap based allocations.  Hence it is being
 +      deprecated.
 +Who:  Ravikiran Thirumalai <kiran@scalex86.org>
 +
 +---------------------------
 +
  What: CONFIG_THERMAL_HWMON
  When: January 2009
  Why:  This option was introduced just to allow older lm-sensors userspace
@@@ -352,8 -311,7 +352,8 @@@ Who:  Krzysztof Piotr Oledzki <ole@ans.
  ---------------------------
  
  What: i2c_attach_client(), i2c_detach_client(), i2c_driver->detach_client()
 -When: 2.6.29 (ideally) or 2.6.30 (more likely)
 +When: 2.6.30
 +Check:        i2c_attach_client i2c_detach_client
  Why:  Deprecated by the new (standard) device driver binding model. Use
        i2c_driver->probe() and ->remove() instead.
  Who:  Jean Delvare <khali@linux-fr.org>
@@@ -368,6 -326,18 +368,6 @@@ Who:      Hans de Goede <hdegoede@redhat.com
  
  ---------------------------
  
 -What: SELinux "compat_net" functionality
 -When: 2.6.30 at the earliest
 -Why:  In 2.6.18 the Secmark concept was introduced to replace the "compat_net"
 -      network access control functionality of SELinux.  Secmark offers both
 -      better performance and greater flexibility than the "compat_net"
 -      mechanism.  Now that the major Linux distributions have moved to
 -      Secmark, it is time to deprecate the older mechanism and start the
 -      process of removing the old code.
 -Who:  Paul Moore <paul.moore@hp.com>
 -
 ----------------------------
 -
  What: sysfs ui for changing p4-clockmod parameters
  When: September 2009
  Why:  See commits 129f8ae9b1b5be94517da76009ea956e89104ce8 and
        cause the thermal throttling not to happen at the right time.
  Who:  Dave Jones <davej@redhat.com>, Matthew Garrett <mjg@redhat.com>
  
 +-----------------------------
 +
 +What: __do_IRQ all in one fits nothing interrupt handler
 +When: 2.6.32
 +Why:  __do_IRQ was kept for easy migration to the type flow handlers.
 +      More than two years of migration time is enough.
 +Who:  Thomas Gleixner <tglx@linutronix.de>
 +
 +-----------------------------
 +
 +What: obsolete generic irq defines and typedefs
 +When: 2.6.30
 +Why:  The defines and typedefs (hw_interrupt_type, no_irq_type, irq_desc_t)
 +      have been kept around for migration reasons. After more than two years
 +      it's time to remove them finally
 +Who:  Thomas Gleixner <tglx@linutronix.de>
++
+ ---------------------------
+ What: fakephp and associated sysfs files in /sys/bus/pci/slots/
+ When: 2011
+ Why:  In 2.6.27, the semantics of /sys/bus/pci/slots was redefined to
+       represent a machine's physical PCI slots. The change in semantics
+       had userspace implications, as the hotplug core no longer allowed
+       drivers to create multiple sysfs files per physical slot (required
+       for multi-function devices, e.g.). fakephp was seen as a developer's
+       tool only, and its interface changed. Too late, we learned that
+       there were some users of the fakephp interface.
+       In 2.6.30, the original fakephp interface was restored. At the same
+       time, the PCI core gained the ability that fakephp provided, namely
+       function-level hot-remove and hot-add.
+       Since the PCI core now provides the same functionality, exposed in:
+               /sys/bus/pci/rescan
+               /sys/bus/pci/devices/.../remove
+               /sys/bus/pci/devices/.../rescan
+       there is no functional reason to maintain fakephp as well.
+       We will keep the existing module so that 'modprobe fakephp' will
+       present the old /sys/bus/pci/slots/... interface for compatibility,
+       but users are urged to migrate their applications to the API above.
+       After a reasonable transition period, we will remove the legacy
+       fakephp interface.
+ Who:  Alex Chiang <achiang@hp.com>
@@@ -44,7 -44,6 +44,7 @@@ parameter is applicable
        FB      The frame buffer device is enabled.
        HW      Appropriate hardware is enabled.
        IA-64   IA-64 architecture is enabled.
 +      IMA     Integrity measurement architecture is enabled.
        IOSCHED More than one I/O scheduler is enabled.
        IP_PNP  IP DHCP, BOOTP, or RARP is enabled.
        ISAPNP  ISA PnP code is enabled.
@@@ -492,23 -491,11 +492,23 @@@ and is between 256 and 4096 characters
                        Range: 0 - 8192
                        Default: 64
  
 +      dma_debug=off   If the kernel is compiled with DMA_API_DEBUG support
 +                      this option disables the debugging code at boot.
 +
 +      dma_debug_entries=<number>
 +                      This option allows to tune the number of preallocated
 +                      entries for DMA-API debugging code. One entry is
 +                      required per DMA-API allocation. Use this if the
 +                      DMA-API debugging code disables itself because the
 +                      architectural default is too low.
 +
        hpet=           [X86-32,HPET] option to control HPET usage
 -                      Format: { enable (default) | disable | force }
 +                      Format: { enable (default) | disable | force |
 +                              verbose }
                        disable: disable HPET and use PIT instead
                        force: allow force enabled of undocumented chips (ICH4,
                        VIA, nVidia)
 +                      verbose: show contents of HPET registers during setup
  
        com20020=       [HW,NET] ARCnet - COM20020 chipset
                        Format:
  
        hvc_iucv=       [S390] Number of z/VM IUCV hypervisor console (HVC)
                               terminal devices. Valid values: 0..8
 +      hvc_iucv_allow= [S390] Comma-separated list of z/VM user IDs.
 +                             If specified, z/VM IUCV HVC accepts connections
 +                             from listed z/VM user IDs only.
 +
 +      i2c_bus=        [HW] Override the default board specific I2C bus speed
 +                           or register an additional I2C bus that is not
 +                           registered from board initialization code.
 +                           Format:
 +                           <bus_id>,<clkrate>
  
        i8042.debug     [HW] Toggle i8042 debug mode
        i8042.direct    [HW] Put keyboard port into non-translated mode
        ihash_entries=  [KNL]
                        Set number of hash buckets for inode cache.
  
 +      ima_audit=      [IMA]
 +                      Format: { "0" | "1" }
 +                      0 -- integrity auditing messages. (Default)
 +                      1 -- enable informational integrity auditing messages.
 +
 +      ima_hash=       [IMA]
 +                      Formt: { "sha1" | "md5" }
 +                      default: "sha1"
 +
        in2000=         [HW,SCSI]
                        See header of drivers/scsi/in2000.c.
  
  
        memtest=        [KNL,X86] Enable memtest
                        Format: <integer>
 -                      range: 0,4 : pattern number
                        default : 0 <disable>
 +                      Specifies the number of memtest passes to be
 +                      performed. Each pass selects another test
 +                      pattern from a given set of patterns. Memtest
 +                      fills the memory with this pattern, validates
 +                      memory contents and reserves bad memory
 +                      regions that are detected.
  
        meye.*=         [HW] Set MotionEye Camera parameters
                        See Documentation/video4linux/meye.txt.
                        See also Documentation/blockdev/paride.txt.
  
        pci=option[,option...]  [PCI] various PCI subsystem options:
+               earlydump       [X86] dump PCI config space before the kernel
+                               changes anything
                off             [X86] don't probe for the PCI bus
                bios            [X86-32] force use of PCI BIOS, don't access
                                the hardware directly. Use this if your machine
                cbmemsize=nn[KMG]       The fixed amount of bus space which is
                                reserved for the CardBus bridge's memory
                                window. The default value is 64 megabytes.
+               resource_alignment=
+                               Format:
+                               [<order of align>@][<domain>:]<bus>:<slot>.<func>[; ...]
+                               Specifies alignment and device to reassign
+                               aligned memory resources.
+                               If <order of align> is not specified,
+                               PAGE_SIZE is used as alignment.
+                               PCI-PCI bridge can be specified, if resource
+                               windows need to be expanded.
  
        pcie_aspm=      [PCIE] Forcibly enable or disable PCIe Active State Power
                        Management.
                        autoconfiguration.
                        Ranges are in pairs (memory base and size).
  
 -      dynamic_printk  Enables pr_debug()/dev_dbg() calls if
 -                      CONFIG_DYNAMIC_PRINTK_DEBUG has been enabled.
 -                      These can also be switched on/off via
 -                      <debugfs>/dynamic_printk/modules
 -
        print-fatal-signals=
                        [KNL] debug: print fatal signals
                        print-fatal-signals=1: print segfault info to
                        If enabled at boot time, /selinux/disable can be used
                        later to disable prior to initial policy load.
  
 -      selinux_compat_net =
 -                      [SELINUX] Set initial selinux_compat_net flag value.
 -                        Format: { "0" | "1" }
 -                        0 -- use new secmark-based packet controls
 -                        1 -- use legacy packet controls
 -                        Default value is 0 (preferred).
 -                        Value can be changed at runtime via
 -                        /selinux/compat_net.
 -
        serialnumber    [BUGS=X86-32]
  
        shapers=        [NET]
@@@ -1,7 -1,7 +1,7 @@@
  /*
   *    Intel IO-APIC support for multi-Pentium hosts.
   *
 - *    Copyright (C) 1997, 1998, 1999, 2000 Ingo Molnar, Hajnalka Szabo
 + *    Copyright (C) 1997, 1998, 1999, 2000, 2009 Ingo Molnar, Hajnalka Szabo
   *
   *    Many thanks to Stig Venaas for trying out countless experimental
   *    patches and reporting/debugging problems patiently!
@@@ -46,7 -46,6 +46,7 @@@
  #include <asm/idle.h>
  #include <asm/io.h>
  #include <asm/smp.h>
 +#include <asm/cpu.h>
  #include <asm/desc.h>
  #include <asm/proto.h>
  #include <asm/acpi.h>
@@@ -62,7 -61,9 +62,7 @@@
  #include <asm/uv/uv_hub.h>
  #include <asm/uv/uv_irq.h>
  
 -#include <mach_ipi.h>
 -#include <mach_apic.h>
 -#include <mach_apicdef.h>
 +#include <asm/apic.h>
  
  #define __apicdebuginit(type) static type __init
  
@@@ -81,11 -82,11 +81,11 @@@ static DEFINE_SPINLOCK(vector_lock)
  int nr_ioapic_registers[MAX_IO_APICS];
  
  /* I/O APIC entries */
 -struct mp_config_ioapic mp_ioapics[MAX_IO_APICS];
 +struct mpc_ioapic mp_ioapics[MAX_IO_APICS];
  int nr_ioapics;
  
  /* MP IRQ source entries */
 -struct mp_config_intsrc mp_irqs[MAX_IRQ_SOURCES];
 +struct mpc_intsrc mp_irqs[MAX_IRQ_SOURCES];
  
  /* # of MP IRQ source entries */
  int mp_irq_entries;
@@@ -98,19 -99,10 +98,19 @@@ DECLARE_BITMAP(mp_bus_not_pci, MAX_MP_B
  
  int skip_ioapic_setup;
  
 +void arch_disable_smp_support(void)
 +{
 +#ifdef CONFIG_PCI
 +      noioapicquirk = 1;
 +      noioapicreroute = -1;
 +#endif
 +      skip_ioapic_setup = 1;
 +}
 +
  static int __init parse_noapic(char *str)
  {
        /* disable IO-APIC */
 -      disable_ioapic_setup();
 +      arch_disable_smp_support();
        return 0;
  }
  early_param("noapic", parse_noapic);
@@@ -364,7 -356,7 +364,7 @@@ set_extra_move_desc(struct irq_desc *de
  
        if (!cfg->move_in_progress) {
                /* it means that domain is not changed */
 -              if (!cpumask_intersects(&desc->affinity, mask))
 +              if (!cpumask_intersects(desc->affinity, mask))
                        cfg->move_desc_pending = 1;
        }
  }
@@@ -389,20 -381,12 +389,20 @@@ struct io_apic 
        unsigned int index;
        unsigned int unused[3];
        unsigned int data;
 +      unsigned int unused2[11];
 +      unsigned int eoi;
  };
  
  static __attribute_const__ struct io_apic __iomem *io_apic_base(int idx)
  {
        return (void __iomem *) __fix_to_virt(FIX_IO_APIC_BASE_0 + idx)
 -              + (mp_ioapics[idx].mp_apicaddr & ~PAGE_MASK);
 +              + (mp_ioapics[idx].apicaddr & ~PAGE_MASK);
 +}
 +
 +static inline void io_apic_eoi(unsigned int apic, unsigned int vector)
 +{
 +      struct io_apic __iomem *io_apic = io_apic_base(apic);
 +      writel(vector, &io_apic->eoi);
  }
  
  static inline unsigned int io_apic_read(unsigned int apic, unsigned int reg)
@@@ -494,7 -478,7 +494,7 @@@ __ioapic_write_entry(int apic, int pin
        io_apic_write(apic, 0x10 + 2*pin, eu.w1);
  }
  
 -static void ioapic_write_entry(int apic, int pin, struct IO_APIC_route_entry e)
 +void ioapic_write_entry(int apic, int pin, struct IO_APIC_route_entry e)
  {
        unsigned long flags;
        spin_lock_irqsave(&ioapic_lock, flags);
@@@ -529,11 -513,11 +529,11 @@@ static void send_cleanup_vector(struct 
                for_each_cpu_and(i, cfg->old_domain, cpu_online_mask)
                        cfg->move_cleanup_count++;
                for_each_cpu_and(i, cfg->old_domain, cpu_online_mask)
 -                      send_IPI_mask(cpumask_of(i), IRQ_MOVE_CLEANUP_VECTOR);
 +                      apic->send_IPI_mask(cpumask_of(i), IRQ_MOVE_CLEANUP_VECTOR);
        } else {
                cpumask_and(cleanup_mask, cfg->old_domain, cpu_online_mask);
                cfg->move_cleanup_count = cpumask_weight(cleanup_mask);
 -              send_IPI_mask(cleanup_mask, IRQ_MOVE_CLEANUP_VECTOR);
 +              apic->send_IPI_mask(cleanup_mask, IRQ_MOVE_CLEANUP_VECTOR);
                free_cpumask_var(cleanup_mask);
        }
        cfg->move_in_progress = 0;
@@@ -554,12 -538,16 +554,12 @@@ static void __target_IO_APIC_irq(unsign
  
                apic = entry->apic;
                pin = entry->pin;
 -#ifdef CONFIG_INTR_REMAP
                /*
                 * With interrupt-remapping, destination information comes
                 * from interrupt-remapping table entry.
                 */
                if (!irq_remapped(irq))
                        io_apic_write(apic, 0x11 + pin*2, dest);
 -#else
 -              io_apic_write(apic, 0x11 + pin*2, dest);
 -#endif
                reg = io_apic_read(apic, 0x10 + pin*2);
                reg &= ~IO_APIC_REDIR_VECTOR_MASK;
                reg |= vector;
@@@ -574,9 -562,8 +574,9 @@@ static in
  assign_irq_vector(int irq, struct irq_cfg *cfg, const struct cpumask *mask);
  
  /*
 - * Either sets desc->affinity to a valid value, and returns cpu_mask_to_apicid
 - * of that, or returns BAD_APICID and leaves desc->affinity untouched.
 + * Either sets desc->affinity to a valid value, and returns
 + * ->cpu_mask_to_apicid of that, or returns BAD_APICID and
 + * leaves desc->affinity untouched.
   */
  static unsigned int
  set_desc_affinity(struct irq_desc *desc, const struct cpumask *mask)
        if (assign_irq_vector(irq, cfg, mask))
                return BAD_APICID;
  
 -      cpumask_and(&desc->affinity, cfg->domain, mask);
 +      /* check that before desc->addinity get updated */
        set_extra_move_desc(desc, mask);
 -      return cpu_mask_to_apicid_and(&desc->affinity, cpu_online_mask);
 +
 +      cpumask_copy(desc->affinity, mask);
 +
 +      return apic->cpu_mask_to_apicid_and(desc->affinity, cfg->domain);
  }
  
  static void
@@@ -812,6 -796,23 +812,6 @@@ static void clear_IO_APIC (void
                        clear_IO_APIC_pin(apic, pin);
  }
  
 -#if !defined(CONFIG_SMP) && defined(CONFIG_X86_32)
 -void send_IPI_self(int vector)
 -{
 -      unsigned int cfg;
 -
 -      /*
 -       * Wait for idle.
 -       */
 -      apic_wait_icr_idle();
 -      cfg = APIC_DM_FIXED | APIC_DEST_SELF | vector | APIC_DEST_LOGICAL;
 -      /*
 -       * Send the IPI. The write to APIC_ICR fires this off.
 -       */
 -      apic_write(APIC_ICR, cfg);
 -}
 -#endif /* !CONFIG_SMP && CONFIG_X86_32*/
 -
  #ifdef CONFIG_X86_32
  /*
   * support for broken MP BIOSs, enables hand-redirection of PIRQ0-7 to
   */
  
  #define MAX_PIRQS 8
 -static int pirq_entries [MAX_PIRQS];
 -static int pirqs_enabled;
 +static int pirq_entries[MAX_PIRQS] = {
 +      [0 ... MAX_PIRQS - 1] = -1
 +};
  
  static int __init ioapic_pirq_setup(char *str)
  {
  
        get_options(str, ARRAY_SIZE(ints), ints);
  
 -      for (i = 0; i < MAX_PIRQS; i++)
 -              pirq_entries[i] = -1;
 -
 -      pirqs_enabled = 1;
        apic_printk(APIC_VERBOSE, KERN_INFO
                        "PIRQ redirection, working around broken MP-BIOS.\n");
        max = MAX_PIRQS;
@@@ -855,9 -859,9 +855,9 @@@ __setup("pirq=", ioapic_pirq_setup)
  static struct IO_APIC_route_entry *early_ioapic_entries[MAX_IO_APICS];
  
  /*
 - * Saves and masks all the unmasked IO-APIC RTE's
 + * Saves all the IO-APIC RTE's
   */
 -int save_mask_IO_APIC_setup(void)
 +int save_IO_APIC_setup(void)
  {
        union IO_APIC_reg_01 reg_01;
        unsigned long flags;
        }
  
        for (apic = 0; apic < nr_ioapics; apic++)
 -              for (pin = 0; pin < nr_ioapic_registers[apic]; pin++) {
 -                      struct IO_APIC_route_entry entry;
 -
 -                      entry = early_ioapic_entries[apic][pin] =
 +              for (pin = 0; pin < nr_ioapic_registers[apic]; pin++)
 +                      early_ioapic_entries[apic][pin] =
                                ioapic_read_entry(apic, pin);
 -                      if (!entry.mask) {
 -                              entry.mask = 1;
 -                              ioapic_write_entry(apic, pin, entry);
 -                      }
 -              }
  
        return 0;
  
@@@ -897,25 -908,6 +897,25 @@@ nomem
        return -ENOMEM;
  }
  
 +void mask_IO_APIC_setup(void)
 +{
 +      int apic, pin;
 +
 +      for (apic = 0; apic < nr_ioapics; apic++) {
 +              if (!early_ioapic_entries[apic])
 +                      break;
 +              for (pin = 0; pin < nr_ioapic_registers[apic]; pin++) {
 +                      struct IO_APIC_route_entry entry;
 +
 +                      entry = early_ioapic_entries[apic][pin];
 +                      if (!entry.mask) {
 +                              entry.mask = 1;
 +                              ioapic_write_entry(apic, pin, entry);
 +                      }
 +              }
 +      }
 +}
 +
  void restore_IO_APIC_setup(void)
  {
        int apic, pin;
@@@ -952,10 -944,10 +952,10 @@@ static int find_irq_entry(int apic, in
        int i;
  
        for (i = 0; i < mp_irq_entries; i++)
 -              if (mp_irqs[i].mp_irqtype == type &&
 -                  (mp_irqs[i].mp_dstapic == mp_ioapics[apic].mp_apicid ||
 -                   mp_irqs[i].mp_dstapic == MP_APIC_ALL) &&
 -                  mp_irqs[i].mp_dstirq == pin)
 +              if (mp_irqs[i].irqtype == type &&
 +                  (mp_irqs[i].dstapic == mp_ioapics[apic].apicid ||
 +                   mp_irqs[i].dstapic == MP_APIC_ALL) &&
 +                  mp_irqs[i].dstirq == pin)
                        return i;
  
        return -1;
@@@ -969,13 -961,13 +969,13 @@@ static int __init find_isa_irq_pin(int 
        int i;
  
        for (i = 0; i < mp_irq_entries; i++) {
 -              int lbus = mp_irqs[i].mp_srcbus;
 +              int lbus = mp_irqs[i].srcbus;
  
                if (test_bit(lbus, mp_bus_not_pci) &&
 -                  (mp_irqs[i].mp_irqtype == type) &&
 -                  (mp_irqs[i].mp_srcbusirq == irq))
 +                  (mp_irqs[i].irqtype == type) &&
 +                  (mp_irqs[i].srcbusirq == irq))
  
 -                      return mp_irqs[i].mp_dstirq;
 +                      return mp_irqs[i].dstirq;
        }
        return -1;
  }
@@@ -985,17 -977,17 +985,17 @@@ static int __init find_isa_irq_apic(in
        int i;
  
        for (i = 0; i < mp_irq_entries; i++) {
 -              int lbus = mp_irqs[i].mp_srcbus;
 +              int lbus = mp_irqs[i].srcbus;
  
                if (test_bit(lbus, mp_bus_not_pci) &&
 -                  (mp_irqs[i].mp_irqtype == type) &&
 -                  (mp_irqs[i].mp_srcbusirq == irq))
 +                  (mp_irqs[i].irqtype == type) &&
 +                  (mp_irqs[i].srcbusirq == irq))
                        break;
        }
        if (i < mp_irq_entries) {
                int apic;
                for(apic = 0; apic < nr_ioapics; apic++) {
 -                      if (mp_ioapics[apic].mp_apicid == mp_irqs[i].mp_dstapic)
 +                      if (mp_ioapics[apic].apicid == mp_irqs[i].dstapic)
                                return apic;
                }
        }
@@@ -1020,23 -1012,23 +1020,23 @@@ int IO_APIC_get_PCI_irq_vector(int bus
                return -1;
        }
        for (i = 0; i < mp_irq_entries; i++) {
 -              int lbus = mp_irqs[i].mp_srcbus;
 +              int lbus = mp_irqs[i].srcbus;
  
                for (apic = 0; apic < nr_ioapics; apic++)
 -                      if (mp_ioapics[apic].mp_apicid == mp_irqs[i].mp_dstapic ||
 -                          mp_irqs[i].mp_dstapic == MP_APIC_ALL)
 +                      if (mp_ioapics[apic].apicid == mp_irqs[i].dstapic ||
 +                          mp_irqs[i].dstapic == MP_APIC_ALL)
                                break;
  
                if (!test_bit(lbus, mp_bus_not_pci) &&
 -                  !mp_irqs[i].mp_irqtype &&
 +                  !mp_irqs[i].irqtype &&
                    (bus == lbus) &&
 -                  (slot == ((mp_irqs[i].mp_srcbusirq >> 2) & 0x1f))) {
 -                      int irq = pin_2_irq(i,apic,mp_irqs[i].mp_dstirq);
 +                  (slot == ((mp_irqs[i].srcbusirq >> 2) & 0x1f))) {
 +                      int irq = pin_2_irq(i, apic, mp_irqs[i].dstirq);
  
                        if (!(apic || IO_APIC_IRQ(irq)))
                                continue;
  
 -                      if (pin == (mp_irqs[i].mp_srcbusirq & 3))
 +                      if (pin == (mp_irqs[i].srcbusirq & 3))
                                return irq;
                        /*
                         * Use the first all-but-pin matching entry as a
@@@ -1079,7 -1071,7 +1079,7 @@@ static int EISA_ELCR(unsigned int irq
   * EISA conforming in the MP table, that means its trigger type must
   * be read in from the ELCR */
  
 -#define default_EISA_trigger(idx)     (EISA_ELCR(mp_irqs[idx].mp_srcbusirq))
 +#define default_EISA_trigger(idx)     (EISA_ELCR(mp_irqs[idx].srcbusirq))
  #define default_EISA_polarity(idx)    default_ISA_polarity(idx)
  
  /* PCI interrupts are always polarity one level triggered,
  
  static int MPBIOS_polarity(int idx)
  {
 -      int bus = mp_irqs[idx].mp_srcbus;
 +      int bus = mp_irqs[idx].srcbus;
        int polarity;
  
        /*
         * Determine IRQ line polarity (high active or low active):
         */
 -      switch (mp_irqs[idx].mp_irqflag & 3)
 +      switch (mp_irqs[idx].irqflag & 3)
        {
                case 0: /* conforms, ie. bus-type dependent polarity */
                        if (test_bit(bus, mp_bus_not_pci))
  
  static int MPBIOS_trigger(int idx)
  {
 -      int bus = mp_irqs[idx].mp_srcbus;
 +      int bus = mp_irqs[idx].srcbus;
        int trigger;
  
        /*
         * Determine IRQ trigger mode (edge or level sensitive):
         */
 -      switch ((mp_irqs[idx].mp_irqflag>>2) & 3)
 +      switch ((mp_irqs[idx].irqflag>>2) & 3)
        {
                case 0: /* conforms, ie. bus-type dependent */
                        if (test_bit(bus, mp_bus_not_pci))
@@@ -1222,16 -1214,16 +1222,16 @@@ int (*ioapic_renumber_irq)(int ioapic, 
  static int pin_2_irq(int idx, int apic, int pin)
  {
        int irq, i;
 -      int bus = mp_irqs[idx].mp_srcbus;
 +      int bus = mp_irqs[idx].srcbus;
  
        /*
         * Debugging check, we are in big trouble if this message pops up!
         */
 -      if (mp_irqs[idx].mp_dstirq != pin)
 +      if (mp_irqs[idx].dstirq != pin)
                printk(KERN_ERR "broken BIOS or MPTABLE parser, ayiee!!\n");
  
        if (test_bit(bus, mp_bus_not_pci)) {
 -              irq = mp_irqs[idx].mp_srcbusirq;
 +              irq = mp_irqs[idx].srcbusirq;
        } else {
                /*
                 * PCI IRQs are mapped in order
@@@ -1323,7 -1315,7 +1323,7 @@@ __assign_irq_vector(int irq, struct irq
                int new_cpu;
                int vector, offset;
  
 -              vector_allocation_domain(cpu, tmp_mask);
 +              apic->vector_allocation_domain(cpu, tmp_mask);
  
                vector = current_vector;
                offset = current_offset;
@@@ -1429,7 -1421,9 +1429,7 @@@ void __setup_vector_irq(int cpu
  }
  
  static struct irq_chip ioapic_chip;
 -#ifdef CONFIG_INTR_REMAP
  static struct irq_chip ir_ioapic_chip;
 -#endif
  
  #define IOAPIC_AUTO     -1
  #define IOAPIC_EDGE     0
@@@ -1468,6 -1462,7 +1468,6 @@@ static void ioapic_register_intr(int ir
        else
                desc->status &= ~IRQ_LEVEL;
  
 -#ifdef CONFIG_INTR_REMAP
        if (irq_remapped(irq)) {
                desc->status |= IRQ_MOVE_PCNTXT;
                if (trigger)
                                                      handle_edge_irq, "edge");
                return;
        }
 -#endif
 +
        if ((trigger == IOAPIC_AUTO && IO_APIC_irq_trigger(irq)) ||
            trigger == IOAPIC_LEVEL)
                set_irq_chip_and_handler_name(irq, &ioapic_chip,
                                              handle_edge_irq, "edge");
  }
  
 -static int setup_ioapic_entry(int apic, int irq,
 -                            struct IO_APIC_route_entry *entry,
 -                            unsigned int destination, int trigger,
 -                            int polarity, int vector)
 +int setup_ioapic_entry(int apic_id, int irq,
 +                     struct IO_APIC_route_entry *entry,
 +                     unsigned int destination, int trigger,
 +                     int polarity, int vector, int pin)
  {
        /*
         * add it to the IO-APIC irq-routing table:
         */
        memset(entry,0,sizeof(*entry));
  
 -#ifdef CONFIG_INTR_REMAP
        if (intr_remapping_enabled) {
 -              struct intel_iommu *iommu = map_ioapic_to_ir(apic);
 +              struct intel_iommu *iommu = map_ioapic_to_ir(apic_id);
                struct irte irte;
                struct IR_IO_APIC_route_entry *ir_entry =
                        (struct IR_IO_APIC_route_entry *) entry;
                int index;
  
                if (!iommu)
 -                      panic("No mapping iommu for ioapic %d\n", apic);
 +                      panic("No mapping iommu for ioapic %d\n", apic_id);
  
                index = alloc_irte(iommu, irq, 1);
                if (index < 0)
 -                      panic("Failed to allocate IRTE for ioapic %d\n", apic);
 +                      panic("Failed to allocate IRTE for ioapic %d\n", apic_id);
  
                memset(&irte, 0, sizeof(irte));
  
                irte.present = 1;
 -              irte.dst_mode = INT_DEST_MODE;
 -              irte.trigger_mode = trigger;
 -              irte.dlvry_mode = INT_DELIVERY_MODE;
 +              irte.dst_mode = apic->irq_dest_mode;
 +              /*
 +               * Trigger mode in the IRTE will always be edge, and the
 +               * actual level or edge trigger will be setup in the IO-APIC
 +               * RTE. This will help simplify level triggered irq migration.
 +               * For more details, see the comments above explainig IO-APIC
 +               * irq migration in the presence of interrupt-remapping.
 +               */
 +              irte.trigger_mode = 0;
 +              irte.dlvry_mode = apic->irq_delivery_mode;
                irte.vector = vector;
                irte.dest_id = IRTE_DEST(destination);
  
                ir_entry->zero = 0;
                ir_entry->format = 1;
                ir_entry->index = (index & 0x7fff);
 -      } else
 -#endif
 -      {
 -              entry->delivery_mode = INT_DELIVERY_MODE;
 -              entry->dest_mode = INT_DEST_MODE;
 +              /*
 +               * IO-APIC RTE will be configured with virtual vector.
 +               * irq handler will do the explicit EOI to the io-apic.
 +               */
 +              ir_entry->vector = pin;
 +      } else {
 +              entry->delivery_mode = apic->irq_delivery_mode;
 +              entry->dest_mode = apic->irq_dest_mode;
                entry->dest = destination;
 +              entry->vector = vector;
        }
  
        entry->mask = 0;                                /* enable IRQ */
        entry->trigger = trigger;
        entry->polarity = polarity;
 -      entry->vector = vector;
  
        /* Mask level triggered irqs.
         * Use IRQ_DELAYED_DISABLE for edge triggered irqs.
        return 0;
  }
  
 -static void setup_IO_APIC_irq(int apic, int pin, unsigned int irq, struct irq_desc *desc,
 +static void setup_IO_APIC_irq(int apic_id, int pin, unsigned int irq, struct irq_desc *desc,
                              int trigger, int polarity)
  {
        struct irq_cfg *cfg;
  
        cfg = desc->chip_data;
  
 -      if (assign_irq_vector(irq, cfg, TARGET_CPUS))
 +      if (assign_irq_vector(irq, cfg, apic->target_cpus()))
                return;
  
 -      dest = cpu_mask_to_apicid_and(cfg->domain, TARGET_CPUS);
 +      dest = apic->cpu_mask_to_apicid_and(cfg->domain, apic->target_cpus());
  
        apic_printk(APIC_VERBOSE,KERN_DEBUG
                    "IOAPIC[%d]: Set routing entry (%d-%d -> 0x%x -> "
                    "IRQ %d Mode:%i Active:%i)\n",
 -                  apic, mp_ioapics[apic].mp_apicid, pin, cfg->vector,
 +                  apic_id, mp_ioapics[apic_id].apicid, pin, cfg->vector,
                    irq, trigger, polarity);
  
  
 -      if (setup_ioapic_entry(mp_ioapics[apic].mp_apicid, irq, &entry,
 -                             dest, trigger, polarity, cfg->vector)) {
 +      if (setup_ioapic_entry(mp_ioapics[apic_id].apicid, irq, &entry,
 +                             dest, trigger, polarity, cfg->vector, pin)) {
                printk("Failed to setup ioapic entry for ioapic  %d, pin %d\n",
 -                     mp_ioapics[apic].mp_apicid, pin);
 +                     mp_ioapics[apic_id].apicid, pin);
                __clear_irq_vector(irq, cfg);
                return;
        }
        if (irq < NR_IRQS_LEGACY)
                disable_8259A_irq(irq);
  
 -      ioapic_write_entry(apic, pin, entry);
 +      ioapic_write_entry(apic_id, pin, entry);
  }
  
  static void __init setup_IO_APIC_irqs(void)
  {
 -      int apic, pin, idx, irq;
 +      int apic_id, pin, idx, irq;
        int notcon = 0;
        struct irq_desc *desc;
        struct irq_cfg *cfg;
  
        apic_printk(APIC_VERBOSE, KERN_DEBUG "init IO_APIC IRQs\n");
  
 -      for (apic = 0; apic < nr_ioapics; apic++) {
 -              for (pin = 0; pin < nr_ioapic_registers[apic]; pin++) {
 +      for (apic_id = 0; apic_id < nr_ioapics; apic_id++) {
 +              for (pin = 0; pin < nr_ioapic_registers[apic_id]; pin++) {
  
 -                      idx = find_irq_entry(apic, pin, mp_INT);
 +                      idx = find_irq_entry(apic_id, pin, mp_INT);
                        if (idx == -1) {
                                if (!notcon) {
                                        notcon = 1;
                                        apic_printk(APIC_VERBOSE,
                                                KERN_DEBUG " %d-%d",
 -                                              mp_ioapics[apic].mp_apicid,
 -                                              pin);
 +                                              mp_ioapics[apic_id].apicid, pin);
                                } else
                                        apic_printk(APIC_VERBOSE, " %d-%d",
 -                                              mp_ioapics[apic].mp_apicid,
 -                                              pin);
 +                                              mp_ioapics[apic_id].apicid, pin);
                                continue;
                        }
                        if (notcon) {
                                notcon = 0;
                        }
  
 -                      irq = pin_2_irq(idx, apic, pin);
 -#ifdef CONFIG_X86_32
 -                      if (multi_timer_check(apic, irq))
 +                      irq = pin_2_irq(idx, apic_id, pin);
 +
 +                      /*
 +                       * Skip the timer IRQ if there's a quirk handler
 +                       * installed and if it returns 1:
 +                       */
 +                      if (apic->multi_timer_check &&
 +                                      apic->multi_timer_check(apic_id, irq))
                                continue;
 -#endif
 +
                        desc = irq_to_desc_alloc_cpu(irq, cpu);
                        if (!desc) {
                                printk(KERN_INFO "can not get irq_desc for %d\n", irq);
                                continue;
                        }
                        cfg = desc->chip_data;
 -                      add_pin_to_irq_cpu(cfg, cpu, apic, pin);
 +                      add_pin_to_irq_cpu(cfg, cpu, apic_id, pin);
  
 -                      setup_IO_APIC_irq(apic, pin, irq, desc,
 +                      setup_IO_APIC_irq(apic_id, pin, irq, desc,
                                        irq_trigger(idx), irq_polarity(idx));
                }
        }
  /*
   * Set up the timer pin, possibly with the 8259A-master behind.
   */
 -static void __init setup_timer_IRQ0_pin(unsigned int apic, unsigned int pin,
 +static void __init setup_timer_IRQ0_pin(unsigned int apic_id, unsigned int pin,
                                        int vector)
  {
        struct IO_APIC_route_entry entry;
  
 -#ifdef CONFIG_INTR_REMAP
        if (intr_remapping_enabled)
                return;
 -#endif
  
        memset(&entry, 0, sizeof(entry));
  
         * We use logical delivery to get the timer IRQ
         * to the first CPU.
         */
 -      entry.dest_mode = INT_DEST_MODE;
 -      entry.mask = 1;                                 /* mask IRQ now */
 -      entry.dest = cpu_mask_to_apicid(TARGET_CPUS);
 -      entry.delivery_mode = INT_DELIVERY_MODE;
 +      entry.dest_mode = apic->irq_dest_mode;
 +      entry.mask = 0;                 /* don't mask IRQ for edge */
 +      entry.dest = apic->cpu_mask_to_apicid(apic->target_cpus());
 +      entry.delivery_mode = apic->irq_delivery_mode;
        entry.polarity = 0;
        entry.trigger = 0;
        entry.vector = vector;
        /*
         * Add it to the IO-APIC irq-routing table:
         */
 -      ioapic_write_entry(apic, pin, entry);
 +      ioapic_write_entry(apic_id, pin, entry);
  }
  
  
@@@ -1714,7 -1699,7 +1714,7 @@@ __apicdebuginit(void) print_IO_APIC(voi
        printk(KERN_DEBUG "number of MP IRQ sources: %d.\n", mp_irq_entries);
        for (i = 0; i < nr_ioapics; i++)
                printk(KERN_DEBUG "number of IO-APIC #%d registers: %d.\n",
 -                     mp_ioapics[i].mp_apicid, nr_ioapic_registers[i]);
 +                     mp_ioapics[i].apicid, nr_ioapic_registers[i]);
  
        /*
         * We are a bit conservative about what we expect.  We have to
        spin_unlock_irqrestore(&ioapic_lock, flags);
  
        printk("\n");
 -      printk(KERN_DEBUG "IO APIC #%d......\n", mp_ioapics[apic].mp_apicid);
 +      printk(KERN_DEBUG "IO APIC #%d......\n", mp_ioapics[apic].apicid);
        printk(KERN_DEBUG ".... register #00: %08X\n", reg_00.raw);
        printk(KERN_DEBUG ".......    : physical APIC id: %02X\n", reg_00.bits.ID);
        printk(KERN_DEBUG ".......    : Delivery Type: %X\n", reg_00.bits.delivery_type);
@@@ -1995,6 -1980,13 +1995,6 @@@ void __init enable_IO_APIC(void
        int apic;
        unsigned long flags;
  
 -#ifdef CONFIG_X86_32
 -      int i;
 -      if (!pirqs_enabled)
 -              for (i = 0; i < MAX_PIRQS; i++)
 -                      pirq_entries[i] = -1;
 -#endif
 -
        /*
         * The number of IO-APIC IRQ registers (== #pins):
         */
@@@ -2062,13 -2054,8 +2062,13 @@@ void disable_IO_APIC(void
         * If the i8259 is routed through an IOAPIC
         * Put that IOAPIC in virtual wire mode
         * so legacy interrupts can be delivered.
 +       *
 +       * With interrupt-remapping, for now we will use virtual wire A mode,
 +       * as virtual wire B is little complex (need to configure both
 +       * IOAPIC RTE aswell as interrupt-remapping table entry).
 +       * As this gets called during crash dump, keep this simple for now.
         */
 -      if (ioapic_i8259.pin != -1) {
 +      if (ioapic_i8259.pin != -1 && !intr_remapping_enabled) {
                struct IO_APIC_route_entry entry;
  
                memset(&entry, 0, sizeof(entry));
                ioapic_write_entry(ioapic_i8259.apic, ioapic_i8259.pin, entry);
        }
  
 -      disconnect_bsp_APIC(ioapic_i8259.pin != -1);
 +      /*
 +       * Use virtual wire A mode when interrupt remapping is enabled.
 +       */
 +      disconnect_bsp_APIC(!intr_remapping_enabled && ioapic_i8259.pin != -1);
  }
  
  #ifdef CONFIG_X86_32
@@@ -2106,7 -2090,7 +2106,7 @@@ static void __init setup_ioapic_ids_fro
  {
        union IO_APIC_reg_00 reg_00;
        physid_mask_t phys_id_present_map;
 -      int apic;
 +      int apic_id;
        int i;
        unsigned char old_id;
        unsigned long flags;
         * This is broken; anything with a real cpu count has to
         * circumvent this idiocy regardless.
         */
 -      phys_id_present_map = ioapic_phys_id_map(phys_cpu_present_map);
 +      phys_id_present_map = apic->ioapic_phys_id_map(phys_cpu_present_map);
  
        /*
         * Set the IOAPIC ID to the value stored in the MPC table.
         */
 -      for (apic = 0; apic < nr_ioapics; apic++) {
 +      for (apic_id = 0; apic_id < nr_ioapics; apic_id++) {
  
                /* Read the register 0 value */
                spin_lock_irqsave(&ioapic_lock, flags);
 -              reg_00.raw = io_apic_read(apic, 0);
 +              reg_00.raw = io_apic_read(apic_id, 0);
                spin_unlock_irqrestore(&ioapic_lock, flags);
  
 -              old_id = mp_ioapics[apic].mp_apicid;
 +              old_id = mp_ioapics[apic_id].apicid;
  
 -              if (mp_ioapics[apic].mp_apicid >= get_physical_broadcast()) {
 +              if (mp_ioapics[apic_id].apicid >= get_physical_broadcast()) {
                        printk(KERN_ERR "BIOS bug, IO-APIC#%d ID is %d in the MPC table!...\n",
 -                              apic, mp_ioapics[apic].mp_apicid);
 +                              apic_id, mp_ioapics[apic_id].apicid);
                        printk(KERN_ERR "... fixing up to %d. (tell your hw vendor)\n",
                                reg_00.bits.ID);
 -                      mp_ioapics[apic].mp_apicid = reg_00.bits.ID;
 +                      mp_ioapics[apic_id].apicid = reg_00.bits.ID;
                }
  
                /*
                 * system must have a unique ID or we get lots of nice
                 * 'stuck on smp_invalidate_needed IPI wait' messages.
                 */
 -              if (check_apicid_used(phys_id_present_map,
 -                                      mp_ioapics[apic].mp_apicid)) {
 +              if (apic->check_apicid_used(phys_id_present_map,
 +                                      mp_ioapics[apic_id].apicid)) {
                        printk(KERN_ERR "BIOS bug, IO-APIC#%d ID %d is already used!...\n",
 -                              apic, mp_ioapics[apic].mp_apicid);
 +                              apic_id, mp_ioapics[apic_id].apicid);
                        for (i = 0; i < get_physical_broadcast(); i++)
                                if (!physid_isset(i, phys_id_present_map))
                                        break;
                        printk(KERN_ERR "... fixing up to %d. (tell your hw vendor)\n",
                                i);
                        physid_set(i, phys_id_present_map);
 -                      mp_ioapics[apic].mp_apicid = i;
 +                      mp_ioapics[apic_id].apicid = i;
                } else {
                        physid_mask_t tmp;
 -                      tmp = apicid_to_cpu_present(mp_ioapics[apic].mp_apicid);
 +                      tmp = apic->apicid_to_cpu_present(mp_ioapics[apic_id].apicid);
                        apic_printk(APIC_VERBOSE, "Setting %d in the "
                                        "phys_id_present_map\n",
 -                                      mp_ioapics[apic].mp_apicid);
 +                                      mp_ioapics[apic_id].apicid);
                        physids_or(phys_id_present_map, phys_id_present_map, tmp);
                }
  
                 * We need to adjust the IRQ routing table
                 * if the ID changed.
                 */
 -              if (old_id != mp_ioapics[apic].mp_apicid)
 +              if (old_id != mp_ioapics[apic_id].apicid)
                        for (i = 0; i < mp_irq_entries; i++)
 -                              if (mp_irqs[i].mp_dstapic == old_id)
 -                                      mp_irqs[i].mp_dstapic
 -                                              = mp_ioapics[apic].mp_apicid;
 +                              if (mp_irqs[i].dstapic == old_id)
 +                                      mp_irqs[i].dstapic
 +                                              = mp_ioapics[apic_id].apicid;
  
                /*
                 * Read the right value from the MPC table and
                 */
                apic_printk(APIC_VERBOSE, KERN_INFO
                        "...changing IO-APIC physical APIC ID to %d ...",
 -                      mp_ioapics[apic].mp_apicid);
 +                      mp_ioapics[apic_id].apicid);
  
 -              reg_00.bits.ID = mp_ioapics[apic].mp_apicid;
 +              reg_00.bits.ID = mp_ioapics[apic_id].apicid;
                spin_lock_irqsave(&ioapic_lock, flags);
 -              io_apic_write(apic, 0, reg_00.raw);
 +              io_apic_write(apic_id, 0, reg_00.raw);
                spin_unlock_irqrestore(&ioapic_lock, flags);
  
                /*
                 * Sanity check
                 */
                spin_lock_irqsave(&ioapic_lock, flags);
 -              reg_00.raw = io_apic_read(apic, 0);
 +              reg_00.raw = io_apic_read(apic_id, 0);
                spin_unlock_irqrestore(&ioapic_lock, flags);
 -              if (reg_00.bits.ID != mp_ioapics[apic].mp_apicid)
 +              if (reg_00.bits.ID != mp_ioapics[apic_id].apicid)
                        printk("could not set ID!\n");
                else
                        apic_printk(APIC_VERBOSE, " ok.\n");
@@@ -2307,7 -2291,7 +2307,7 @@@ static int ioapic_retrigger_irq(unsigne
        unsigned long flags;
  
        spin_lock_irqsave(&vector_lock, flags);
 -      send_IPI_mask(cpumask_of(cpumask_first(cfg->domain)), cfg->vector);
 +      apic->send_IPI_mask(cpumask_of(cpumask_first(cfg->domain)), cfg->vector);
        spin_unlock_irqrestore(&vector_lock, flags);
  
        return 1;
  #else
  static int ioapic_retrigger_irq(unsigned int irq)
  {
 -      send_IPI_self(irq_cfg(irq)->vector);
 +      apic->send_IPI_self(irq_cfg(irq)->vector);
  
        return 1;
  }
  #ifdef CONFIG_SMP
  
  #ifdef CONFIG_INTR_REMAP
 -static void ir_irq_migration(struct work_struct *work);
 -
 -static DECLARE_DELAYED_WORK(ir_migration_work, ir_irq_migration);
  
  /*
   * Migrate the IO-APIC irq in the presence of intr-remapping.
   *
 - * For edge triggered, irq migration is a simple atomic update(of vector
 - * and cpu destination) of IRTE and flush the hardware cache.
 - *
 - * For level triggered, we need to modify the io-apic RTE aswell with the update
 - * vector information, along with modifying IRTE with vector and destination.
 - * So irq migration for level triggered is little  bit more complex compared to
 - * edge triggered migration. But the good news is, we use the same algorithm
 - * for level triggered migration as we have today, only difference being,
 - * we now initiate the irq migration from process context instead of the
 - * interrupt context.
 + * For both level and edge triggered, irq migration is a simple atomic
 + * update(of vector and cpu destination) of IRTE and flush the hardware cache.
   *
 - * In future, when we do a directed EOI (combined with cpu EOI broadcast
 - * suppression) to the IO-APIC, level triggered irq migration will also be
 - * as simple as edge triggered migration and we can do the irq migration
 - * with a simple atomic update to IO-APIC RTE.
 + * For level triggered, we eliminate the io-apic RTE modification (with the
 + * updated vector information), by using a virtual vector (io-apic pin number).
 + * Real vector that is used for interrupting cpu will be coming from
 + * the interrupt-remapping table entry.
   */
  static void
  migrate_ioapic_irq_desc(struct irq_desc *desc, const struct cpumask *mask)
  {
        struct irq_cfg *cfg;
        struct irte irte;
 -      int modify_ioapic_rte;
        unsigned int dest;
 -      unsigned long flags;
        unsigned int irq;
  
        if (!cpumask_intersects(mask, cpu_online_mask))
  
        set_extra_move_desc(desc, mask);
  
 -      dest = cpu_mask_to_apicid_and(cfg->domain, mask);
 -
 -      modify_ioapic_rte = desc->status & IRQ_LEVEL;
 -      if (modify_ioapic_rte) {
 -              spin_lock_irqsave(&ioapic_lock, flags);
 -              __target_IO_APIC_irq(irq, dest, cfg);
 -              spin_unlock_irqrestore(&ioapic_lock, flags);
 -      }
 +      dest = apic->cpu_mask_to_apicid_and(cfg->domain, mask);
  
        irte.vector = cfg->vector;
        irte.dest_id = IRTE_DEST(dest);
        if (cfg->move_in_progress)
                send_cleanup_vector(cfg);
  
 -      cpumask_copy(&desc->affinity, mask);
 -}
 -
 -static int migrate_irq_remapped_level_desc(struct irq_desc *desc)
 -{
 -      int ret = -1;
 -      struct irq_cfg *cfg = desc->chip_data;
 -
 -      mask_IO_APIC_irq_desc(desc);
 -
 -      if (io_apic_level_ack_pending(cfg)) {
 -              /*
 -               * Interrupt in progress. Migrating irq now will change the
 -               * vector information in the IO-APIC RTE and that will confuse
 -               * the EOI broadcast performed by cpu.
 -               * So, delay the irq migration to the next instance.
 -               */
 -              schedule_delayed_work(&ir_migration_work, 1);
 -              goto unmask;
 -      }
 -
 -      /* everthing is clear. we have right of way */
 -      migrate_ioapic_irq_desc(desc, &desc->pending_mask);
 -
 -      ret = 0;
 -      desc->status &= ~IRQ_MOVE_PENDING;
 -      cpumask_clear(&desc->pending_mask);
 -
 -unmask:
 -      unmask_IO_APIC_irq_desc(desc);
 -
 -      return ret;
 -}
 -
 -static void ir_irq_migration(struct work_struct *work)
 -{
 -      unsigned int irq;
 -      struct irq_desc *desc;
 -
 -      for_each_irq_desc(irq, desc) {
 -              if (desc->status & IRQ_MOVE_PENDING) {
 -                      unsigned long flags;
 -
 -                      spin_lock_irqsave(&desc->lock, flags);
 -                      if (!desc->chip->set_affinity ||
 -                          !(desc->status & IRQ_MOVE_PENDING)) {
 -                              desc->status &= ~IRQ_MOVE_PENDING;
 -                              spin_unlock_irqrestore(&desc->lock, flags);
 -                              continue;
 -                      }
 -
 -                      desc->chip->set_affinity(irq, &desc->pending_mask);
 -                      spin_unlock_irqrestore(&desc->lock, flags);
 -              }
 -      }
 +      cpumask_copy(desc->affinity, mask);
  }
  
  /*
  static void set_ir_ioapic_affinity_irq_desc(struct irq_desc *desc,
                                            const struct cpumask *mask)
  {
 -      if (desc->status & IRQ_LEVEL) {
 -              desc->status |= IRQ_MOVE_PENDING;
 -              cpumask_copy(&desc->pending_mask, mask);
 -              migrate_irq_remapped_level_desc(desc);
 -              return;
 -      }
 -
        migrate_ioapic_irq_desc(desc, mask);
  }
  static void set_ir_ioapic_affinity_irq(unsigned int irq,
  
        set_ir_ioapic_affinity_irq_desc(desc, mask);
  }
 +#else
 +static inline void set_ir_ioapic_affinity_irq_desc(struct irq_desc *desc,
 +                                                 const struct cpumask *mask)
 +{
 +}
  #endif
  
  asmlinkage void smp_irq_move_cleanup_interrupt(void)
        me = smp_processor_id();
        for (vector = FIRST_EXTERNAL_VECTOR; vector < NR_VECTORS; vector++) {
                unsigned int irq;
 +              unsigned int irr;
                struct irq_desc *desc;
                struct irq_cfg *cfg;
                irq = __get_cpu_var(vector_irq)[vector];
                if (vector == cfg->vector && cpumask_test_cpu(me, cfg->domain))
                        goto unlock;
  
 +              irr = apic_read(APIC_IRR + (vector / 32 * 0x10));
 +              /*
 +               * Check if the vector that needs to be cleanedup is
 +               * registered at the cpu's IRR. If so, then this is not
 +               * the best time to clean it up. Lets clean it up in the
 +               * next attempt by sending another IRQ_MOVE_CLEANUP_VECTOR
 +               * to myself.
 +               */
 +              if (irr  & (1 << (vector % 32))) {
 +                      apic->send_IPI_self(IRQ_MOVE_CLEANUP_VECTOR);
 +                      goto unlock;
 +              }
                __get_cpu_var(vector_irq)[vector] = -1;
                cfg->move_cleanup_count--;
  unlock:
@@@ -2469,7 -2516,7 +2469,7 @@@ static void irq_complete_move(struct ir
  
                /* domain has not changed, but affinity did */
                me = smp_processor_id();
 -              if (cpu_isset(me, desc->affinity)) {
 +              if (cpumask_test_cpu(me, desc->affinity)) {
                        *descp = desc = move_irq_desc(desc, me);
                        /* get the new one */
                        cfg = desc->chip_data;
@@@ -2496,44 -2543,9 +2496,44 @@@ static inline void irq_complete_move(st
  #endif
  
  #ifdef CONFIG_INTR_REMAP
 +static void __eoi_ioapic_irq(unsigned int irq, struct irq_cfg *cfg)
 +{
 +      int apic, pin;
 +      struct irq_pin_list *entry;
 +
 +      entry = cfg->irq_2_pin;
 +      for (;;) {
 +
 +              if (!entry)
 +                      break;
 +
 +              apic = entry->apic;
 +              pin = entry->pin;
 +              io_apic_eoi(apic, pin);
 +              entry = entry->next;
 +      }
 +}
 +
 +static void
 +eoi_ioapic_irq(struct irq_desc *desc)
 +{
 +      struct irq_cfg *cfg;
 +      unsigned long flags;
 +      unsigned int irq;
 +
 +      irq = desc->irq;
 +      cfg = desc->chip_data;
 +
 +      spin_lock_irqsave(&ioapic_lock, flags);
 +      __eoi_ioapic_irq(irq, cfg);
 +      spin_unlock_irqrestore(&ioapic_lock, flags);
 +}
 +
  static void ack_x2apic_level(unsigned int irq)
  {
 +      struct irq_desc *desc = irq_to_desc(irq);
        ack_x2APIC_irq();
 +      eoi_ioapic_irq(desc);
  }
  
  static void ack_x2apic_edge(unsigned int irq)
@@@ -2664,20 -2676,20 +2664,20 @@@ static struct irq_chip ioapic_chip __re
        .retrigger      = ioapic_retrigger_irq,
  };
  
 -#ifdef CONFIG_INTR_REMAP
  static struct irq_chip ir_ioapic_chip __read_mostly = {
        .name           = "IR-IO-APIC",
        .startup        = startup_ioapic_irq,
        .mask           = mask_IO_APIC_irq,
        .unmask         = unmask_IO_APIC_irq,
 +#ifdef CONFIG_INTR_REMAP
        .ack            = ack_x2apic_edge,
        .eoi            = ack_x2apic_level,
  #ifdef CONFIG_SMP
        .set_affinity   = set_ir_ioapic_affinity_irq,
 +#endif
  #endif
        .retrigger      = ioapic_retrigger_irq,
  };
 -#endif
  
  static inline void init_IO_APIC_traps(void)
  {
@@@ -2855,15 -2867,19 +2855,15 @@@ static inline void __init check_timer(v
        int cpu = boot_cpu_id;
        int apic1, pin1, apic2, pin2;
        unsigned long flags;
 -      unsigned int ver;
        int no_pin1 = 0;
  
        local_irq_save(flags);
  
 -      ver = apic_read(APIC_LVR);
 -      ver = GET_APIC_VERSION(ver);
 -
        /*
         * get/set the timer IRQ vector:
         */
        disable_8259A_irq(0);
 -      assign_irq_vector(0, cfg, TARGET_CPUS);
 +      assign_irq_vector(0, cfg, apic->target_cpus());
  
        /*
         * As IRQ0 is to be enabled in the 8259A, the virtual
        apic_write(APIC_LVT0, APIC_LVT_MASKED | APIC_DM_EXTINT);
        init_8259A(1);
  #ifdef CONFIG_X86_32
 -      timer_ack = (nmi_watchdog == NMI_IO_APIC && !APIC_INTEGRATED(ver));
 +      {
 +              unsigned int ver;
 +
 +              ver = apic_read(APIC_LVR);
 +              ver = GET_APIC_VERSION(ver);
 +              timer_ack = (nmi_watchdog == NMI_IO_APIC && !APIC_INTEGRATED(ver));
 +      }
  #endif
  
        pin1  = find_isa_irq_pin(0, mp_INT);
         * 8259A.
         */
        if (pin1 == -1) {
 -#ifdef CONFIG_INTR_REMAP
                if (intr_remapping_enabled)
                        panic("BIOS bug: timer not connected to IO-APIC");
 -#endif
                pin1 = pin2;
                apic1 = apic2;
                no_pin1 = 1;
                if (no_pin1) {
                        add_pin_to_irq_cpu(cfg, cpu, apic1, pin1);
                        setup_timer_IRQ0_pin(apic1, pin1, cfg->vector);
 +              } else {
 +                      /* for edge trigger, setup_IO_APIC_irq already
 +                       * leave it unmasked.
 +                       * so only need to unmask if it is level-trigger
 +                       * do we really have level trigger timer?
 +                       */
 +                      int idx;
 +                      idx = find_irq_entry(apic1, pin1, mp_INT);
 +                      if (idx != -1 && irq_trigger(idx))
 +                              unmask_IO_APIC_irq_desc(desc);
                }
 -              unmask_IO_APIC_irq_desc(desc);
                if (timer_irq_works()) {
                        if (nmi_watchdog == NMI_IO_APIC) {
                                setup_nmi();
                                clear_IO_APIC_pin(0, pin1);
                        goto out;
                }
 -#ifdef CONFIG_INTR_REMAP
                if (intr_remapping_enabled)
                        panic("timer doesn't work through Interrupt-remapped IO-APIC");
 -#endif
 +              local_irq_disable();
                clear_IO_APIC_pin(apic1, pin1);
                if (!no_pin1)
                        apic_printk(APIC_QUIET, KERN_ERR "..MP-BIOS bug: "
                 */
                replace_pin_at_irq_cpu(cfg, cpu, apic1, pin1, apic2, pin2);
                setup_timer_IRQ0_pin(apic2, pin2, cfg->vector);
 -              unmask_IO_APIC_irq_desc(desc);
                enable_8259A_irq(0);
                if (timer_irq_works()) {
                        apic_printk(APIC_QUIET, KERN_INFO "....... works.\n");
                /*
                 * Cleanup, just in case ...
                 */
 +              local_irq_disable();
                disable_8259A_irq(0);
                clear_IO_APIC_pin(apic2, pin2);
                apic_printk(APIC_QUIET, KERN_INFO "....... failed.\n");
                apic_printk(APIC_QUIET, KERN_INFO "..... works.\n");
                goto out;
        }
 +      local_irq_disable();
        disable_8259A_irq(0);
        apic_write(APIC_LVT0, APIC_LVT_MASKED | APIC_DM_FIXED | cfg->vector);
        apic_printk(APIC_QUIET, KERN_INFO "..... failed.\n");
                apic_printk(APIC_QUIET, KERN_INFO "..... works.\n");
                goto out;
        }
 +      local_irq_disable();
        apic_printk(APIC_QUIET, KERN_INFO "..... failed :(.\n");
        panic("IO-APIC + timer doesn't work!  Boot with apic=debug and send a "
                "report.  Then try booting with the 'noapic' option.\n");
@@@ -3045,9 -3047,13 +3045,9 @@@ out
  void __init setup_IO_APIC(void)
  {
  
 -#ifdef CONFIG_X86_32
 -      enable_IO_APIC();
 -#else
        /*
         * calling enable_IO_APIC() is moved to setup_local_APIC for BP
         */
 -#endif
  
        io_apic_irqs = ~PIC_IRQS;
  
@@@ -3112,8 -3118,8 +3112,8 @@@ static int ioapic_resume(struct sys_dev
  
        spin_lock_irqsave(&ioapic_lock, flags);
        reg_00.raw = io_apic_read(dev->id, 0);
 -      if (reg_00.bits.ID != mp_ioapics[dev->id].mp_apicid) {
 -              reg_00.bits.ID = mp_ioapics[dev->id].mp_apicid;
 +      if (reg_00.bits.ID != mp_ioapics[dev->id].apicid) {
 +              reg_00.bits.ID = mp_ioapics[dev->id].apicid;
                io_apic_write(dev->id, 0, reg_00.raw);
        }
        spin_unlock_irqrestore(&ioapic_lock, flags);
@@@ -3163,7 -3169,6 +3163,7 @@@ static int __init ioapic_init_sysfs(voi
  
  device_initcall(ioapic_init_sysfs);
  
 +static int nr_irqs_gsi = NR_IRQS_LEGACY;
  /*
   * Dynamic irq allocate and deallocation
   */
@@@ -3178,11 -3183,11 +3178,11 @@@ unsigned int create_irq_nr(unsigned in
        struct irq_desc *desc_new = NULL;
  
        irq = 0;
 -      spin_lock_irqsave(&vector_lock, flags);
 -      for (new = irq_want; new < NR_IRQS; new++) {
 -              if (platform_legacy_irq(new))
 -                      continue;
 +      if (irq_want < nr_irqs_gsi)
 +              irq_want = nr_irqs_gsi;
  
 +      spin_lock_irqsave(&vector_lock, flags);
 +      for (new = irq_want; new < nr_irqs; new++) {
                desc_new = irq_to_desc_alloc_cpu(new, cpu);
                if (!desc_new) {
                        printk(KERN_INFO "can not get irq_desc for %d\n", new);
  
                if (cfg_new->vector != 0)
                        continue;
 -              if (__assign_irq_vector(new, cfg_new, TARGET_CPUS) == 0)
 +              if (__assign_irq_vector(new, cfg_new, apic->target_cpus()) == 0)
                        irq = new;
                break;
        }
        return irq;
  }
  
 -static int nr_irqs_gsi = NR_IRQS_LEGACY;
  int create_irq(void)
  {
        unsigned int irq_want;
@@@ -3235,7 -3241,9 +3235,7 @@@ void destroy_irq(unsigned int irq
        if (desc)
                desc->chip_data = cfg;
  
 -#ifdef CONFIG_INTR_REMAP
        free_irte(irq);
 -#endif
        spin_lock_irqsave(&vector_lock, flags);
        __clear_irq_vector(irq, cfg);
        spin_unlock_irqrestore(&vector_lock, flags);
@@@ -3251,16 -3259,14 +3251,16 @@@ static int msi_compose_msg(struct pci_d
        int err;
        unsigned dest;
  
 +      if (disable_apic)
 +              return -ENXIO;
 +
        cfg = irq_cfg(irq);
 -      err = assign_irq_vector(irq, cfg, TARGET_CPUS);
 +      err = assign_irq_vector(irq, cfg, apic->target_cpus());
        if (err)
                return err;
  
 -      dest = cpu_mask_to_apicid_and(cfg->domain, TARGET_CPUS);
 +      dest = apic->cpu_mask_to_apicid_and(cfg->domain, apic->target_cpus());
  
 -#ifdef CONFIG_INTR_REMAP
        if (irq_remapped(irq)) {
                struct irte irte;
                int ir_index;
                memset (&irte, 0, sizeof(irte));
  
                irte.present = 1;
 -              irte.dst_mode = INT_DEST_MODE;
 +              irte.dst_mode = apic->irq_dest_mode;
                irte.trigger_mode = 0; /* edge */
 -              irte.dlvry_mode = INT_DELIVERY_MODE;
 +              irte.dlvry_mode = apic->irq_delivery_mode;
                irte.vector = cfg->vector;
                irte.dest_id = IRTE_DEST(dest);
  
                                  MSI_ADDR_IR_SHV |
                                  MSI_ADDR_IR_INDEX1(ir_index) |
                                  MSI_ADDR_IR_INDEX2(ir_index);
 -      } else
 -#endif
 -      {
 -              msg->address_hi = MSI_ADDR_BASE_HI;
 +      } else {
 +              if (x2apic_enabled())
 +                      msg->address_hi = MSI_ADDR_BASE_HI |
 +                                        MSI_ADDR_EXT_DEST_ID(dest);
 +              else
 +                      msg->address_hi = MSI_ADDR_BASE_HI;
 +
                msg->address_lo =
                        MSI_ADDR_BASE_LO |
 -                      ((INT_DEST_MODE == 0) ?
 +                      ((apic->irq_dest_mode == 0) ?
                                MSI_ADDR_DEST_MODE_PHYSICAL:
                                MSI_ADDR_DEST_MODE_LOGICAL) |
 -                      ((INT_DELIVERY_MODE != dest_LowestPrio) ?
 +                      ((apic->irq_delivery_mode != dest_LowestPrio) ?
                                MSI_ADDR_REDIRECTION_CPU:
                                MSI_ADDR_REDIRECTION_LOWPRI) |
                        MSI_ADDR_DEST_ID(dest);
                msg->data =
                        MSI_DATA_TRIGGER_EDGE |
                        MSI_DATA_LEVEL_ASSERT |
 -                      ((INT_DELIVERY_MODE != dest_LowestPrio) ?
 +                      ((apic->irq_delivery_mode != dest_LowestPrio) ?
                                MSI_DATA_DELIVERY_FIXED:
                                MSI_DATA_DELIVERY_LOWPRI) |
                        MSI_DATA_VECTOR(cfg->vector);
@@@ -3392,15 -3395,14 +3392,15 @@@ static struct irq_chip msi_chip = 
        .retrigger      = ioapic_retrigger_irq,
  };
  
 -#ifdef CONFIG_INTR_REMAP
  static struct irq_chip msi_ir_chip = {
        .name           = "IR-PCI-MSI",
        .unmask         = unmask_msi_irq,
        .mask           = mask_msi_irq,
 +#ifdef CONFIG_INTR_REMAP
        .ack            = ack_x2apic_edge,
  #ifdef CONFIG_SMP
        .set_affinity   = ir_set_msi_irq_affinity,
 +#endif
  #endif
        .retrigger      = ioapic_retrigger_irq,
  };
@@@ -3431,6 -3433,7 +3431,6 @@@ static int msi_alloc_irte(struct pci_de
        }
        return index;
  }
 -#endif
  
  static int setup_msi_irq(struct pci_dev *dev, struct msi_desc *msidesc, int irq)
  {
        set_irq_msi(irq, msidesc);
        write_msi_msg(irq, &msg);
  
 -#ifdef CONFIG_INTR_REMAP
        if (irq_remapped(irq)) {
                struct irq_desc *desc = irq_to_desc(irq);
                /*
                desc->status |= IRQ_MOVE_PCNTXT;
                set_irq_chip_and_handler_name(irq, &msi_ir_chip, handle_edge_irq, "edge");
        } else
 -#endif
                set_irq_chip_and_handler_name(irq, &msi_chip, handle_edge_irq, "edge");
  
        dev_printk(KERN_DEBUG, &dev->dev, "irq %d for MSI/MSI-X\n", irq);
        return 0;
  }
  
 -int arch_setup_msi_irq(struct pci_dev *dev, struct msi_desc *msidesc)
 -{
 -      unsigned int irq;
 -      int ret;
 -      unsigned int irq_want;
 -
 -      irq_want = nr_irqs_gsi;
 -      irq = create_irq_nr(irq_want);
 -      if (irq == 0)
 -              return -1;
 -
 -#ifdef CONFIG_INTR_REMAP
 -      if (!intr_remapping_enabled)
 -              goto no_ir;
 -
 -      ret = msi_alloc_irte(dev, irq, 1);
 -      if (ret < 0)
 -              goto error;
 -no_ir:
 -#endif
 -      ret = setup_msi_irq(dev, msidesc, irq);
 -      if (ret < 0) {
 -              destroy_irq(irq);
 -              return ret;
 -      }
 -      return 0;
 -
 -#ifdef CONFIG_INTR_REMAP
 -error:
 -      destroy_irq(irq);
 -      return ret;
 -#endif
 -}
 -
  int arch_setup_msi_irqs(struct pci_dev *dev, int nvec, int type)
  {
        unsigned int irq;
        int ret, sub_handle;
        struct msi_desc *msidesc;
        unsigned int irq_want;
 -
 -#ifdef CONFIG_INTR_REMAP
 -      struct intel_iommu *iommu = 0;
 +      struct intel_iommu *iommu = NULL;
        int index = 0;
 -#endif
  
+       /* x86 doesn't support multiple MSI yet */
+       if (type == PCI_CAP_ID_MSI && nvec > 1)
+               return 1;
        irq_want = nr_irqs_gsi;
        sub_handle = 0;
        list_for_each_entry(msidesc, &dev->msi_list, list) {
                irq = create_irq_nr(irq_want);
 -              irq_want++;
                if (irq == 0)
                        return -1;
 -#ifdef CONFIG_INTR_REMAP
 +              irq_want = irq + 1;
                if (!intr_remapping_enabled)
                        goto no_ir;
  
                        set_irte_irq(irq, iommu, index, sub_handle);
                }
  no_ir:
 -#endif
                ret = setup_msi_irq(dev, msidesc, irq);
                if (ret < 0)
                        goto error;
@@@ -3519,7 -3567,7 +3523,7 @@@ void arch_teardown_msi_irq(unsigned in
        destroy_irq(irq);
  }
  
 -#ifdef CONFIG_DMAR
 +#if defined (CONFIG_DMAR) || defined (CONFIG_INTR_REMAP)
  #ifdef CONFIG_SMP
  static void dmar_msi_set_affinity(unsigned int irq, const struct cpumask *mask)
  {
@@@ -3600,7 -3648,7 +3604,7 @@@ static void hpet_msi_set_affinity(unsig
  
  #endif /* CONFIG_SMP */
  
 -struct irq_chip hpet_msi_type = {
 +static struct irq_chip hpet_msi_type = {
        .name = "HPET_MSI",
        .unmask = hpet_msi_unmask,
        .mask = hpet_msi_mask,
@@@ -3683,17 -3731,13 +3687,17 @@@ int arch_setup_ht_irq(unsigned int irq
        struct irq_cfg *cfg;
        int err;
  
 +      if (disable_apic)
 +              return -ENXIO;
 +
        cfg = irq_cfg(irq);
 -      err = assign_irq_vector(irq, cfg, TARGET_CPUS);
 +      err = assign_irq_vector(irq, cfg, apic->target_cpus());
        if (!err) {
                struct ht_irq_msg msg;
                unsigned dest;
  
 -              dest = cpu_mask_to_apicid_and(cfg->domain, TARGET_CPUS);
 +              dest = apic->cpu_mask_to_apicid_and(cfg->domain,
 +                                                  apic->target_cpus());
  
                msg.address_hi = HT_IRQ_HIGH_DEST_ID(dest);
  
                        HT_IRQ_LOW_BASE |
                        HT_IRQ_LOW_DEST_ID(dest) |
                        HT_IRQ_LOW_VECTOR(cfg->vector) |
 -                      ((INT_DEST_MODE == 0) ?
 +                      ((apic->irq_dest_mode == 0) ?
                                HT_IRQ_LOW_DM_PHYSICAL :
                                HT_IRQ_LOW_DM_LOGICAL) |
                        HT_IRQ_LOW_RQEOI_EDGE |
 -                      ((INT_DELIVERY_MODE != dest_LowestPrio) ?
 +                      ((apic->irq_delivery_mode != dest_LowestPrio) ?
                                HT_IRQ_LOW_MT_FIXED :
                                HT_IRQ_LOW_MT_ARBITRATED) |
                        HT_IRQ_LOW_IRQ_MASKED;
  }
  #endif /* CONFIG_HT_IRQ */
  
 -#ifdef CONFIG_X86_64
 +#ifdef CONFIG_X86_UV
  /*
   * Re-target the irq to the specified CPU and enable the specified MMR located
   * on the specified blade to allow the sending of MSIs to the specified CPU.
@@@ -3753,12 -3797,12 +3757,12 @@@ int arch_enable_uv_irq(char *irq_name, 
        BUG_ON(sizeof(struct uv_IO_APIC_route_entry) != sizeof(unsigned long));
  
        entry->vector = cfg->vector;
 -      entry->delivery_mode = INT_DELIVERY_MODE;
 -      entry->dest_mode = INT_DEST_MODE;
 +      entry->delivery_mode = apic->irq_delivery_mode;
 +      entry->dest_mode = apic->irq_dest_mode;
        entry->polarity = 0;
        entry->trigger = 0;
        entry->mask = 0;
 -      entry->dest = cpu_mask_to_apicid(eligible_cpu);
 +      entry->dest = apic->cpu_mask_to_apicid(eligible_cpu);
  
        mmr_pnode = uv_blade_to_pnode(mmr_blade);
        uv_write_global_mmr64(mmr_pnode, mmr_offset, mmr_value);
@@@ -3821,28 -3865,6 +3825,28 @@@ void __init probe_nr_irqs_gsi(void
        printk(KERN_DEBUG "nr_irqs_gsi: %d\n", nr_irqs_gsi);
  }
  
 +#ifdef CONFIG_SPARSE_IRQ
 +int __init arch_probe_nr_irqs(void)
 +{
 +      int nr;
 +
 +      if (nr_irqs > (NR_VECTORS * nr_cpu_ids))
 +              nr_irqs = NR_VECTORS * nr_cpu_ids;
 +
 +      nr = nr_irqs_gsi + 8 * nr_cpu_ids;
 +#if defined(CONFIG_PCI_MSI) || defined(CONFIG_HT_IRQ)
 +      /*
 +       * for MSI and HT dyn irq
 +       */
 +      nr += nr_irqs_gsi * 16;
 +#endif
 +      if (nr < nr_irqs)
 +              nr_irqs = nr;
 +
 +      return 0;
 +}
 +#endif
 +
  /* --------------------------------------------------------------------------
                            ACPI-based IOAPIC Configuration
     -------------------------------------------------------------------------- */
@@@ -3868,7 -3890,7 +3872,7 @@@ int __init io_apic_get_unique_id(int io
         */
  
        if (physids_empty(apic_id_map))
 -              apic_id_map = ioapic_phys_id_map(phys_cpu_present_map);
 +              apic_id_map = apic->ioapic_phys_id_map(phys_cpu_present_map);
  
        spin_lock_irqsave(&ioapic_lock, flags);
        reg_00.raw = io_apic_read(ioapic, 0);
         * Every APIC in a system must have a unique ID or we get lots of nice
         * 'stuck on smp_invalidate_needed IPI wait' messages.
         */
 -      if (check_apicid_used(apic_id_map, apic_id)) {
 +      if (apic->check_apicid_used(apic_id_map, apic_id)) {
  
                for (i = 0; i < get_physical_broadcast(); i++) {
 -                      if (!check_apicid_used(apic_id_map, i))
 +                      if (!apic->check_apicid_used(apic_id_map, i))
                                break;
                }
  
                apic_id = i;
        }
  
 -      tmp = apicid_to_cpu_present(apic_id);
 +      tmp = apic->apicid_to_cpu_present(apic_id);
        physids_or(apic_id_map, apic_id_map, tmp);
  
        if (reg_00.bits.ID != apic_id) {
@@@ -3977,8 -3999,8 +3981,8 @@@ int acpi_get_override_irq(int bus_irq, 
                return -1;
  
        for (i = 0; i < mp_irq_entries; i++)
 -              if (mp_irqs[i].mp_irqtype == mp_INT &&
 -                  mp_irqs[i].mp_srcbusirq == bus_irq)
 +              if (mp_irqs[i].irqtype == mp_INT &&
 +                  mp_irqs[i].srcbusirq == bus_irq)
                        break;
        if (i >= mp_irq_entries)
                return -1;
  /*
   * This function currently is only a helper for the i386 smp boot process where
   * we need to reprogram the ioredtbls to cater for the cpus which have come online
 - * so mask in all cases should simply be TARGET_CPUS
 + * so mask in all cases should simply be apic->target_cpus()
   */
  #ifdef CONFIG_SMP
  void __init setup_ioapic_dest(void)
                         */
                        if (desc->status &
                            (IRQ_NO_BALANCING | IRQ_AFFINITY_SET))
 -                              mask = &desc->affinity;
 +                              mask = desc->affinity;
                        else
 -                              mask = TARGET_CPUS;
 +                              mask = apic->target_cpus();
  
 -#ifdef CONFIG_INTR_REMAP
                        if (intr_remapping_enabled)
                                set_ir_ioapic_affinity_irq_desc(desc, mask);
                        else
 -#endif
                                set_ioapic_affinity_irq_desc(desc, mask);
                }
  
@@@ -4091,7 -4115,7 +4095,7 @@@ void __init ioapic_init_mappings(void
        ioapic_res = ioapic_setup_resources();
        for (i = 0; i < nr_ioapics; i++) {
                if (smp_found_config) {
 -                      ioapic_phys = mp_ioapics[i].mp_apicaddr;
 +                      ioapic_phys = mp_ioapics[i].apicaddr;
  #ifdef CONFIG_X86_32
                        if (!ioapic_phys) {
                                printk(KERN_ERR
@@@ -4131,12 -4155,9 +4135,12 @@@ static int __init ioapic_insert_resourc
        struct resource *r = ioapic_resources;
  
        if (!r) {
 -              printk(KERN_ERR
 -                     "IO APIC resources could be not be allocated.\n");
 -              return -1;
 +              if (nr_ioapics > 0) {
 +                      printk(KERN_ERR
 +                              "IO APIC resources couldn't be allocated.\n");
 +                      return -1;
 +              }
 +              return 0;
        }
  
        for (i = 0; i < nr_ioapics; i++) {
@@@ -1,5 -1,4 +1,5 @@@
  #include <linux/dma-mapping.h>
 +#include <linux/dma-debug.h>
  #include <linux/dmar.h>
  #include <linux/bootmem.h>
  #include <linux/pci.h>
@@@ -13,7 -12,7 +13,7 @@@
  
  static int forbid_dac __read_mostly;
  
 -struct dma_mapping_ops *dma_ops;
 +struct dma_map_ops *dma_ops;
  EXPORT_SYMBOL(dma_ops);
  
  static int iommu_sac_force __read_mostly;
@@@ -45,9 -44,6 +45,9 @@@ struct device x86_dma_fallback_dev = 
  };
  EXPORT_SYMBOL(x86_dma_fallback_dev);
  
 +/* Number of entries preallocated for DMA-API debugging */
 +#define PREALLOC_DMA_DEBUG_ENTRIES       32768
 +
  int dma_set_mask(struct device *dev, u64 mask)
  {
        if (!dev->dma_mask || !dma_supported(dev, mask))
@@@ -228,7 -224,7 +228,7 @@@ early_param("iommu", iommu_setup)
  
  int dma_supported(struct device *dev, u64 mask)
  {
 -      struct dma_mapping_ops *ops = get_dma_ops(dev);
 +      struct dma_map_ops *ops = get_dma_ops(dev);
  
  #ifdef CONFIG_PCI
        if (mask > 0xffffffff && forbid_dac > 0) {
@@@ -269,12 -265,6 +269,12 @@@ EXPORT_SYMBOL(dma_supported)
  
  static int __init pci_iommu_init(void)
  {
 +      dma_debug_init(PREALLOC_DMA_DEBUG_ENTRIES);
 +
 +#ifdef CONFIG_PCI
 +      dma_debug_add_bus(&pci_bus_type);
 +#endif
 +
        calgary_iommu_init();
  
        intel_iommu_init();
@@@ -300,8 -290,7 +300,7 @@@ fs_initcall(pci_iommu_init)
  static __devinit void via_no_dac(struct pci_dev *dev)
  {
        if ((dev->class >> 8) == PCI_CLASS_BRIDGE_PCI && forbid_dac == 0) {
-               printk(KERN_INFO
-                       "PCI: VIA PCI bridge detected. Disabling DAC.\n");
+               dev_info(&dev->dev, "disabling DAC on VIA PCI bridge\n");
                forbid_dac = 1;
        }
  }
diff --combined arch/x86/pci/fixup.c
@@@ -356,7 -356,7 +356,7 @@@ static void __devinit pci_fixup_video(s
  DECLARE_PCI_FIXUP_FINAL(PCI_ANY_ID, PCI_ANY_ID, pci_fixup_video);
  
  
 -static struct dmi_system_id __devinitdata msi_k8t_dmi_table[] = {
 +static const struct dmi_system_id __devinitconst msi_k8t_dmi_table[] = {
        {
                .ident = "MSI-K8T-Neo2Fir",
                .matches = {
@@@ -413,7 -413,7 +413,7 @@@ DECLARE_PCI_FIXUP_RESUME(PCI_VENDOR_ID_
   */
  static u16 toshiba_line_size;
  
 -static struct dmi_system_id __devinitdata toshiba_ohci1394_dmi_table[] = {
 +static const struct dmi_system_id __devinitconst toshiba_ohci1394_dmi_table[] = {
        {
                .ident = "Toshiba PS5 based laptop",
                .matches = {
@@@ -494,26 -494,6 +494,6 @@@ static void __devinit pci_siemens_inter
  DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_SIEMENS, 0x0015,
                          pci_siemens_interrupt_controller);
  
- /*
-  * Regular PCI devices have 256 bytes, but AMD Family 10h/11h CPUs have
-  * 4096 bytes configuration space for each function of their processor
-  * configuration space.
-  */
- static void amd_cpu_pci_cfg_space_size(struct pci_dev *dev)
- {
-       dev->cfg_size = pci_cfg_space_size_ext(dev);
- }
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1200, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1201, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1202, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1203, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1204, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1300, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1301, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1302, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1303, amd_cpu_pci_cfg_space_size);
- DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_AMD, 0x1304, amd_cpu_pci_cfg_space_size);
  /*
   * SB600: Disable BAR1 on device 14.0 to avoid HPET resources from
   * confusing the PCI engine:
@@@ -1004,6 -1004,194 +1004,6 @@@ static int iommu_disable_translation(st
        return 0;
  }
  
 -/* iommu interrupt handling. Most stuff are MSI-like. */
 -
 -static const char *fault_reason_strings[] =
 -{
 -      "Software",
 -      "Present bit in root entry is clear",
 -      "Present bit in context entry is clear",
 -      "Invalid context entry",
 -      "Access beyond MGAW",
 -      "PTE Write access is not set",
 -      "PTE Read access is not set",
 -      "Next page table ptr is invalid",
 -      "Root table address invalid",
 -      "Context table ptr is invalid",
 -      "non-zero reserved fields in RTP",
 -      "non-zero reserved fields in CTP",
 -      "non-zero reserved fields in PTE",
 -};
 -#define MAX_FAULT_REASON_IDX  (ARRAY_SIZE(fault_reason_strings) - 1)
 -
 -const char *dmar_get_fault_reason(u8 fault_reason)
 -{
 -      if (fault_reason > MAX_FAULT_REASON_IDX)
 -              return "Unknown";
 -      else
 -              return fault_reason_strings[fault_reason];
 -}
 -
 -void dmar_msi_unmask(unsigned int irq)
 -{
 -      struct intel_iommu *iommu = get_irq_data(irq);
 -      unsigned long flag;
 -
 -      /* unmask it */
 -      spin_lock_irqsave(&iommu->register_lock, flag);
 -      writel(0, iommu->reg + DMAR_FECTL_REG);
 -      /* Read a reg to force flush the post write */
 -      readl(iommu->reg + DMAR_FECTL_REG);
 -      spin_unlock_irqrestore(&iommu->register_lock, flag);
 -}
 -
 -void dmar_msi_mask(unsigned int irq)
 -{
 -      unsigned long flag;
 -      struct intel_iommu *iommu = get_irq_data(irq);
 -
 -      /* mask it */
 -      spin_lock_irqsave(&iommu->register_lock, flag);
 -      writel(DMA_FECTL_IM, iommu->reg + DMAR_FECTL_REG);
 -      /* Read a reg to force flush the post write */
 -      readl(iommu->reg + DMAR_FECTL_REG);
 -      spin_unlock_irqrestore(&iommu->register_lock, flag);
 -}
 -
 -void dmar_msi_write(int irq, struct msi_msg *msg)
 -{
 -      struct intel_iommu *iommu = get_irq_data(irq);
 -      unsigned long flag;
 -
 -      spin_lock_irqsave(&iommu->register_lock, flag);
 -      writel(msg->data, iommu->reg + DMAR_FEDATA_REG);
 -      writel(msg->address_lo, iommu->reg + DMAR_FEADDR_REG);
 -      writel(msg->address_hi, iommu->reg + DMAR_FEUADDR_REG);
 -      spin_unlock_irqrestore(&iommu->register_lock, flag);
 -}
 -
 -void dmar_msi_read(int irq, struct msi_msg *msg)
 -{
 -      struct intel_iommu *iommu = get_irq_data(irq);
 -      unsigned long flag;
 -
 -      spin_lock_irqsave(&iommu->register_lock, flag);
 -      msg->data = readl(iommu->reg + DMAR_FEDATA_REG);
 -      msg->address_lo = readl(iommu->reg + DMAR_FEADDR_REG);
 -      msg->address_hi = readl(iommu->reg + DMAR_FEUADDR_REG);
 -      spin_unlock_irqrestore(&iommu->register_lock, flag);
 -}
 -
 -static int iommu_page_fault_do_one(struct intel_iommu *iommu, int type,
 -              u8 fault_reason, u16 source_id, unsigned long long addr)
 -{
 -      const char *reason;
 -
 -      reason = dmar_get_fault_reason(fault_reason);
 -
 -      printk(KERN_ERR
 -              "DMAR:[%s] Request device [%02x:%02x.%d] "
 -              "fault addr %llx \n"
 -              "DMAR:[fault reason %02d] %s\n",
 -              (type ? "DMA Read" : "DMA Write"),
 -              (source_id >> 8), PCI_SLOT(source_id & 0xFF),
 -              PCI_FUNC(source_id & 0xFF), addr, fault_reason, reason);
 -      return 0;
 -}
 -
 -#define PRIMARY_FAULT_REG_LEN (16)
 -static irqreturn_t iommu_page_fault(int irq, void *dev_id)
 -{
 -      struct intel_iommu *iommu = dev_id;
 -      int reg, fault_index;
 -      u32 fault_status;
 -      unsigned long flag;
 -
 -      spin_lock_irqsave(&iommu->register_lock, flag);
 -      fault_status = readl(iommu->reg + DMAR_FSTS_REG);
 -
 -      /* TBD: ignore advanced fault log currently */
 -      if (!(fault_status & DMA_FSTS_PPF))
 -              goto clear_overflow;
 -
 -      fault_index = dma_fsts_fault_record_index(fault_status);
 -      reg = cap_fault_reg_offset(iommu->cap);
 -      while (1) {
 -              u8 fault_reason;
 -              u16 source_id;
 -              u64 guest_addr;
 -              int type;
 -              u32 data;
 -
 -              /* highest 32 bits */
 -              data = readl(iommu->reg + reg +
 -                              fault_index * PRIMARY_FAULT_REG_LEN + 12);
 -              if (!(data & DMA_FRCD_F))
 -                      break;
 -
 -              fault_reason = dma_frcd_fault_reason(data);
 -              type = dma_frcd_type(data);
 -
 -              data = readl(iommu->reg + reg +
 -                              fault_index * PRIMARY_FAULT_REG_LEN + 8);
 -              source_id = dma_frcd_source_id(data);
 -
 -              guest_addr = dmar_readq(iommu->reg + reg +
 -                              fault_index * PRIMARY_FAULT_REG_LEN);
 -              guest_addr = dma_frcd_page_addr(guest_addr);
 -              /* clear the fault */
 -              writel(DMA_FRCD_F, iommu->reg + reg +
 -                      fault_index * PRIMARY_FAULT_REG_LEN + 12);
 -
 -              spin_unlock_irqrestore(&iommu->register_lock, flag);
 -
 -              iommu_page_fault_do_one(iommu, type, fault_reason,
 -                              source_id, guest_addr);
 -
 -              fault_index++;
 -              if (fault_index > cap_num_fault_regs(iommu->cap))
 -                      fault_index = 0;
 -              spin_lock_irqsave(&iommu->register_lock, flag);
 -      }
 -clear_overflow:
 -      /* clear primary fault overflow */
 -      fault_status = readl(iommu->reg + DMAR_FSTS_REG);
 -      if (fault_status & DMA_FSTS_PFO)
 -              writel(DMA_FSTS_PFO, iommu->reg + DMAR_FSTS_REG);
 -
 -      spin_unlock_irqrestore(&iommu->register_lock, flag);
 -      return IRQ_HANDLED;
 -}
 -
 -int dmar_set_interrupt(struct intel_iommu *iommu)
 -{
 -      int irq, ret;
 -
 -      irq = create_irq();
 -      if (!irq) {
 -              printk(KERN_ERR "IOMMU: no free vectors\n");
 -              return -EINVAL;
 -      }
 -
 -      set_irq_data(irq, iommu);
 -      iommu->irq = irq;
 -
 -      ret = arch_setup_dmar_msi(irq);
 -      if (ret) {
 -              set_irq_data(irq, NULL);
 -              iommu->irq = 0;
 -              destroy_irq(irq);
 -              return 0;
 -      }
 -
 -      /* Force fault register is cleared */
 -      iommu_page_fault(irq, iommu);
 -
 -      ret = request_irq(irq, iommu_page_fault, 0, iommu->name, iommu);
 -      if (ret)
 -              printk(KERN_ERR "IOMMU: can't request irq\n");
 -      return ret;
 -}
  
  static int iommu_init_domains(struct intel_iommu *iommu)
  {
@@@ -1782,7 -1970,7 +1782,7 @@@ static inline void iommu_prepare_isa(vo
        ret = iommu_prepare_identity_map(pdev, 0, 16*1024*1024);
  
        if (ret)
-               printk("IOMMU: Failed to create 0-64M identity map, "
+               printk(KERN_ERR "IOMMU: Failed to create 0-64M identity map, "
                        "floppy might not work\n");
  
  }
@@@ -1799,7 -1987,7 +1799,7 @@@ static int __init init_dmars(void
        struct dmar_rmrr_unit *rmrr;
        struct pci_dev *pdev;
        struct intel_iommu *iommu;
 -      int i, ret, unit = 0;
 +      int i, ret;
  
        /*
         * for each drhd
                }
        }
  
 +      /*
 +       * Start from the sane iommu hardware state.
 +       */
        for_each_drhd_unit(drhd) {
                if (drhd->ignored)
                        continue;
  
                iommu = drhd->iommu;
 +
 +              /*
 +               * If the queued invalidation is already initialized by us
 +               * (for example, while enabling interrupt-remapping) then
 +               * we got the things already rolling from a sane state.
 +               */
 +              if (iommu->qi)
 +                      continue;
 +
 +              /*
 +               * Clear any previous faults.
 +               */
 +              dmar_fault(-1, iommu);
 +              /*
 +               * Disable queued invalidation if supported and already enabled
 +               * before OS handover.
 +               */
 +              dmar_disable_qi(iommu);
 +      }
 +
 +      for_each_drhd_unit(drhd) {
 +              if (drhd->ignored)
 +                      continue;
 +
 +              iommu = drhd->iommu;
 +
                if (dmar_enable_qi(iommu)) {
                        /*
                         * Queued Invalidate not enabled, use Register Based
                if (drhd->ignored)
                        continue;
                iommu = drhd->iommu;
 -              sprintf (iommu->name, "dmar%d", unit++);
  
                iommu_flush_write_buffer(iommu);
  
@@@ -2124,13 -2284,11 +2124,13 @@@ error
        return 0;
  }
  
 -dma_addr_t intel_map_single(struct device *hwdev, phys_addr_t paddr,
 -                          size_t size, int dir)
 +static dma_addr_t intel_map_page(struct device *dev, struct page *page,
 +                               unsigned long offset, size_t size,
 +                               enum dma_data_direction dir,
 +                               struct dma_attrs *attrs)
  {
 -      return __intel_map_single(hwdev, paddr, size, dir,
 -                                to_pci_dev(hwdev)->dma_mask);
 +      return __intel_map_single(dev, page_to_phys(page) + offset, size,
 +                                dir, to_pci_dev(dev)->dma_mask);
  }
  
  static void flush_unmaps(void)
@@@ -2194,9 -2352,8 +2194,9 @@@ static void add_unmap(struct dmar_domai
        spin_unlock_irqrestore(&async_umap_flush_lock, flags);
  }
  
 -void intel_unmap_single(struct device *dev, dma_addr_t dev_addr, size_t size,
 -                      int dir)
 +static void intel_unmap_page(struct device *dev, dma_addr_t dev_addr,
 +                           size_t size, enum dma_data_direction dir,
 +                           struct dma_attrs *attrs)
  {
        struct pci_dev *pdev = to_pci_dev(dev);
        struct dmar_domain *domain;
        }
  }
  
 -void *intel_alloc_coherent(struct device *hwdev, size_t size,
 -                         dma_addr_t *dma_handle, gfp_t flags)
 +static void intel_unmap_single(struct device *dev, dma_addr_t dev_addr, size_t size,
 +                             int dir)
 +{
 +      intel_unmap_page(dev, dev_addr, size, dir, NULL);
 +}
 +
 +static void *intel_alloc_coherent(struct device *hwdev, size_t size,
 +                                dma_addr_t *dma_handle, gfp_t flags)
  {
        void *vaddr;
        int order;
        return NULL;
  }
  
 -void intel_free_coherent(struct device *hwdev, size_t size, void *vaddr,
 -                       dma_addr_t dma_handle)
 +static void intel_free_coherent(struct device *hwdev, size_t size, void *vaddr,
 +                              dma_addr_t dma_handle)
  {
        int order;
  
  
  #define SG_ENT_VIRT_ADDRESS(sg)       (sg_virt((sg)))
  
 -void intel_unmap_sg(struct device *hwdev, struct scatterlist *sglist,
 -                  int nelems, int dir)
 +static void intel_unmap_sg(struct device *hwdev, struct scatterlist *sglist,
 +                         int nelems, enum dma_data_direction dir,
 +                         struct dma_attrs *attrs)
  {
        int i;
        struct pci_dev *pdev = to_pci_dev(hwdev);
@@@ -2343,8 -2493,8 +2343,8 @@@ static int intel_nontranslate_map_sg(st
        return nelems;
  }
  
 -int intel_map_sg(struct device *hwdev, struct scatterlist *sglist, int nelems,
 -               int dir)
 +static int intel_map_sg(struct device *hwdev, struct scatterlist *sglist, int nelems,
 +                      enum dma_data_direction dir, struct dma_attrs *attrs)
  {
        void *addr;
        int i;
        return nelems;
  }
  
 -static struct dma_mapping_ops intel_dma_ops = {
 +static int intel_mapping_error(struct device *dev, dma_addr_t dma_addr)
 +{
 +      return !dma_addr;
 +}
 +
 +struct dma_map_ops intel_dma_ops = {
        .alloc_coherent = intel_alloc_coherent,
        .free_coherent = intel_free_coherent,
 -      .map_single = intel_map_single,
 -      .unmap_single = intel_unmap_single,
        .map_sg = intel_map_sg,
        .unmap_sg = intel_unmap_sg,
 +      .map_page = intel_map_page,
 +      .unmap_page = intel_unmap_page,
 +      .mapping_error = intel_mapping_error,
  };
  
  static inline int iommu_domain_cache_init(void)
diff --combined drivers/pci/pci-driver.c
@@@ -99,6 -99,52 +99,52 @@@ store_new_id(struct device_driver *driv
  }
  static DRIVER_ATTR(new_id, S_IWUSR, NULL, store_new_id);
  
+ /**
+  * store_remove_id - remove a PCI device ID from this driver
+  * @driver: target device driver
+  * @buf: buffer for scanning device ID data
+  * @count: input size
+  *
+  * Removes a dynamic pci device ID to this driver.
+  */
+ static ssize_t
+ store_remove_id(struct device_driver *driver, const char *buf, size_t count)
+ {
+       struct pci_dynid *dynid, *n;
+       struct pci_driver *pdrv = to_pci_driver(driver);
+       __u32 vendor, device, subvendor = PCI_ANY_ID,
+               subdevice = PCI_ANY_ID, class = 0, class_mask = 0;
+       int fields = 0;
+       int retval = -ENODEV;
+       fields = sscanf(buf, "%x %x %x %x %x %x",
+                       &vendor, &device, &subvendor, &subdevice,
+                       &class, &class_mask);
+       if (fields < 2)
+               return -EINVAL;
+       spin_lock(&pdrv->dynids.lock);
+       list_for_each_entry_safe(dynid, n, &pdrv->dynids.list, node) {
+               struct pci_device_id *id = &dynid->id;
+               if ((id->vendor == vendor) &&
+                   (id->device == device) &&
+                   (subvendor == PCI_ANY_ID || id->subvendor == subvendor) &&
+                   (subdevice == PCI_ANY_ID || id->subdevice == subdevice) &&
+                   !((id->class ^ class) & class_mask)) {
+                       list_del(&dynid->node);
+                       kfree(dynid);
+                       retval = 0;
+                       break;
+               }
+       }
+       spin_unlock(&pdrv->dynids.lock);
+       if (retval)
+               return retval;
+       return count;
+ }
+ static DRIVER_ATTR(remove_id, S_IWUSR, NULL, store_remove_id);
  static void
  pci_free_dynids(struct pci_driver *drv)
  {
@@@ -125,6 -171,20 +171,20 @@@ static void pci_remove_newid_file(struc
  {
        driver_remove_file(&drv->driver, &driver_attr_new_id);
  }
+ static int
+ pci_create_removeid_file(struct pci_driver *drv)
+ {
+       int error = 0;
+       if (drv->probe != NULL)
+               error = driver_create_file(&drv->driver,&driver_attr_remove_id);
+       return error;
+ }
+ static void pci_remove_removeid_file(struct pci_driver *drv)
+ {
+       driver_remove_file(&drv->driver, &driver_attr_remove_id);
+ }
  #else /* !CONFIG_HOTPLUG */
  static inline void pci_free_dynids(struct pci_driver *drv) {}
  static inline int pci_create_newid_file(struct pci_driver *drv)
        return 0;
  }
  static inline void pci_remove_newid_file(struct pci_driver *drv) {}
+ static inline int pci_create_removeid_file(struct pci_driver *drv)
+ {
+       return 0;
+ }
+ static inline void pci_remove_removeid_file(struct pci_driver *drv) {}
  #endif
  
  /**
@@@ -352,60 -417,53 +417,60 @@@ static int pci_legacy_suspend(struct de
  {
        struct pci_dev * pci_dev = to_pci_dev(dev);
        struct pci_driver * drv = pci_dev->driver;
 -      int i = 0;
 +
 +      pci_dev->state_saved = false;
  
        if (drv && drv->suspend) {
                pci_power_t prev = pci_dev->current_state;
 +              int error;
  
 -              pci_dev->state_saved = false;
 -
 -              i = drv->suspend(pci_dev, state);
 -              suspend_report_result(drv->suspend, i);
 -              if (i)
 -                      return i;
 -
 -              if (pci_dev->state_saved)
 -                      goto Fixup;
 +              error = drv->suspend(pci_dev, state);
 +              suspend_report_result(drv->suspend, error);
 +              if (error)
 +                      return error;
  
 -              if (pci_dev->current_state != PCI_D0
 +              if (!pci_dev->state_saved && pci_dev->current_state != PCI_D0
                    && pci_dev->current_state != PCI_UNKNOWN) {
                        WARN_ONCE(pci_dev->current_state != prev,
                                "PCI PM: Device state not saved by %pF\n",
                                drv->suspend);
 -                      goto Fixup;
                }
        }
  
 -      pci_save_state(pci_dev);
 -      /*
 -       * This is for compatibility with existing code with legacy PM support.
 -       */
 -      pci_pm_set_unknown_state(pci_dev);
 -
 - Fixup:
        pci_fixup_device(pci_fixup_suspend, pci_dev);
  
 -      return i;
 +      return 0;
  }
  
  static int pci_legacy_suspend_late(struct device *dev, pm_message_t state)
  {
        struct pci_dev * pci_dev = to_pci_dev(dev);
        struct pci_driver * drv = pci_dev->driver;
 -      int i = 0;
  
        if (drv && drv->suspend_late) {
 -              i = drv->suspend_late(pci_dev, state);
 -              suspend_report_result(drv->suspend_late, i);
 +              pci_power_t prev = pci_dev->current_state;
 +              int error;
 +
 +              error = drv->suspend_late(pci_dev, state);
 +              suspend_report_result(drv->suspend_late, error);
 +              if (error)
 +                      return error;
 +
 +              if (!pci_dev->state_saved && pci_dev->current_state != PCI_D0
 +                  && pci_dev->current_state != PCI_UNKNOWN) {
 +                      WARN_ONCE(pci_dev->current_state != prev,
 +                              "PCI PM: Device state not saved by %pF\n",
 +                              drv->suspend_late);
 +                      return 0;
 +              }
        }
 -      return i;
 +
 +      if (!pci_dev->state_saved)
 +              pci_save_state(pci_dev);
 +
 +      pci_pm_set_unknown_state(pci_dev);
 +
 +      return 0;
  }
  
  static int pci_legacy_resume_early(struct device *dev)
@@@ -430,23 -488,6 +495,23 @@@ static int pci_legacy_resume(struct dev
  
  /* Auxiliary functions used by the new power management framework */
  
 +/**
 + * pci_restore_standard_config - restore standard config registers of PCI device
 + * @pci_dev: PCI device to handle
 + */
 +static int pci_restore_standard_config(struct pci_dev *pci_dev)
 +{
 +      pci_update_current_state(pci_dev, PCI_UNKNOWN);
 +
 +      if (pci_dev->current_state != PCI_D0) {
 +              int error = pci_set_power_state(pci_dev, PCI_D0);
 +              if (error)
 +                      return error;
 +      }
 +
 +      return pci_dev->state_saved ? pci_restore_state(pci_dev) : 0;
 +}
 +
  static void pci_pm_default_resume_noirq(struct pci_dev *pci_dev)
  {
        pci_restore_standard_config(pci_dev);
@@@ -467,6 -508,7 +532,6 @@@ static void pci_pm_default_suspend(stru
        /* Disable non-bridge devices without PM support */
        if (!pci_is_bridge(pci_dev))
                pci_disable_enabled_device(pci_dev);
 -      pci_save_state(pci_dev);
  }
  
  static bool pci_has_legacy_pm_support(struct pci_dev *pci_dev)
@@@ -516,13 -558,13 +581,13 @@@ static int pci_pm_suspend(struct devic
        if (pci_has_legacy_pm_support(pci_dev))
                return pci_legacy_suspend(dev, PMSG_SUSPEND);
  
 +      pci_dev->state_saved = false;
 +
        if (!pm) {
                pci_pm_default_suspend(pci_dev);
                goto Fixup;
        }
  
 -      pci_dev->state_saved = false;
 -
        if (pm->suspend) {
                pci_power_t prev = pci_dev->current_state;
                int error;
                if (error)
                        return error;
  
 -              if (pci_dev->state_saved)
 -                      goto Fixup;
 -
 -              if (pci_dev->current_state != PCI_D0
 +              if (!pci_dev->state_saved && pci_dev->current_state != PCI_D0
                    && pci_dev->current_state != PCI_UNKNOWN) {
                        WARN_ONCE(pci_dev->current_state != prev,
                                "PCI PM: State of device not saved by %pF\n",
                                pm->suspend);
 -                      goto Fixup;
                }
        }
  
 -      if (!pci_dev->state_saved) {
 -              pci_save_state(pci_dev);
 -              if (!pci_is_bridge(pci_dev))
 -                      pci_prepare_to_sleep(pci_dev);
 -      }
 -
   Fixup:
        pci_fixup_device(pci_fixup_suspend, pci_dev);
  
  static int pci_pm_suspend_noirq(struct device *dev)
  {
        struct pci_dev *pci_dev = to_pci_dev(dev);
 -      struct device_driver *drv = dev->driver;
 -      int error = 0;
 +      struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
  
        if (pci_has_legacy_pm_support(pci_dev))
                return pci_legacy_suspend_late(dev, PMSG_SUSPEND);
  
 -      if (drv && drv->pm && drv->pm->suspend_noirq) {
 -              error = drv->pm->suspend_noirq(dev);
 -              suspend_report_result(drv->pm->suspend_noirq, error);
 +      if (!pm) {
 +              pci_save_state(pci_dev);
 +              return 0;
        }
  
 -      if (!error)
 -              pci_pm_set_unknown_state(pci_dev);
 +      if (pm->suspend_noirq) {
 +              pci_power_t prev = pci_dev->current_state;
 +              int error;
  
 -      return error;
 +              error = pm->suspend_noirq(dev);
 +              suspend_report_result(pm->suspend_noirq, error);
 +              if (error)
 +                      return error;
 +
 +              if (!pci_dev->state_saved && pci_dev->current_state != PCI_D0
 +                  && pci_dev->current_state != PCI_UNKNOWN) {
 +                      WARN_ONCE(pci_dev->current_state != prev,
 +                              "PCI PM: State of device not saved by %pF\n",
 +                              pm->suspend_noirq);
 +                      return 0;
 +              }
 +      }
 +
 +      if (!pci_dev->state_saved) {
 +              pci_save_state(pci_dev);
 +              if (!pci_is_bridge(pci_dev))
 +                      pci_prepare_to_sleep(pci_dev);
 +      }
 +
 +      pci_pm_set_unknown_state(pci_dev);
 +
 +      return 0;
  }
  
  static int pci_pm_resume_noirq(struct device *dev)
@@@ -652,13 -682,13 +717,13 @@@ static int pci_pm_freeze(struct device 
        if (pci_has_legacy_pm_support(pci_dev))
                return pci_legacy_suspend(dev, PMSG_FREEZE);
  
 +      pci_dev->state_saved = false;
 +
        if (!pm) {
                pci_pm_default_suspend(pci_dev);
                return 0;
        }
  
 -      pci_dev->state_saved = false;
 -
        if (pm->freeze) {
                int error;
  
                        return error;
        }
  
 -      if (!pci_dev->state_saved)
 -              pci_save_state(pci_dev);
 -
        return 0;
  }
  
@@@ -675,25 -708,20 +740,25 @@@ static int pci_pm_freeze_noirq(struct d
  {
        struct pci_dev *pci_dev = to_pci_dev(dev);
        struct device_driver *drv = dev->driver;
 -      int error = 0;
  
        if (pci_has_legacy_pm_support(pci_dev))
                return pci_legacy_suspend_late(dev, PMSG_FREEZE);
  
        if (drv && drv->pm && drv->pm->freeze_noirq) {
 +              int error;
 +
                error = drv->pm->freeze_noirq(dev);
                suspend_report_result(drv->pm->freeze_noirq, error);
 +              if (error)
 +                      return error;
        }
  
 -      if (!error)
 -              pci_pm_set_unknown_state(pci_dev);
 +      if (!pci_dev->state_saved)
 +              pci_save_state(pci_dev);
  
 -      return error;
 +      pci_pm_set_unknown_state(pci_dev);
 +
 +      return 0;
  }
  
  static int pci_pm_thaw_noirq(struct device *dev)
@@@ -736,56 -764,46 +801,56 @@@ static int pci_pm_poweroff(struct devic
  {
        struct pci_dev *pci_dev = to_pci_dev(dev);
        struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
 -      int error = 0;
  
        if (pci_has_legacy_pm_support(pci_dev))
                return pci_legacy_suspend(dev, PMSG_HIBERNATE);
  
 +      pci_dev->state_saved = false;
 +
        if (!pm) {
                pci_pm_default_suspend(pci_dev);
                goto Fixup;
        }
  
 -      pci_dev->state_saved = false;
 -
        if (pm->poweroff) {
 +              int error;
 +
                error = pm->poweroff(dev);
                suspend_report_result(pm->poweroff, error);
 +              if (error)
 +                      return error;
        }
  
 -      if (!pci_dev->state_saved && !pci_is_bridge(pci_dev))
 -              pci_prepare_to_sleep(pci_dev);
 -
   Fixup:
        pci_fixup_device(pci_fixup_suspend, pci_dev);
  
 -      return error;
 +      return 0;
  }
  
  static int pci_pm_poweroff_noirq(struct device *dev)
  {
 +      struct pci_dev *pci_dev = to_pci_dev(dev);
        struct device_driver *drv = dev->driver;
 -      int error = 0;
  
        if (pci_has_legacy_pm_support(to_pci_dev(dev)))
                return pci_legacy_suspend_late(dev, PMSG_HIBERNATE);
  
 -      if (drv && drv->pm && drv->pm->poweroff_noirq) {
 +      if (!drv || !drv->pm)
 +              return 0;
 +
 +      if (drv->pm->poweroff_noirq) {
 +              int error;
 +
                error = drv->pm->poweroff_noirq(dev);
                suspend_report_result(drv->pm->poweroff_noirq, error);
 +              if (error)
 +                      return error;
        }
  
 -      return error;
 +      if (!pci_dev->state_saved && !pci_is_bridge(pci_dev))
 +              pci_prepare_to_sleep(pci_dev);
 +
 +      return 0;
  }
  
  static int pci_pm_restore_noirq(struct device *dev)
@@@ -899,13 -917,23 +964,23 @@@ int __pci_register_driver(struct pci_dr
        /* register with core */
        error = driver_register(&drv->driver);
        if (error)
-               return error;
+               goto out;
  
        error = pci_create_newid_file(drv);
        if (error)
-               driver_unregister(&drv->driver);
+               goto out_newid;
  
+       error = pci_create_removeid_file(drv);
+       if (error)
+               goto out_removeid;
+ out:
        return error;
+ out_removeid:
+       pci_remove_newid_file(drv);
+ out_newid:
+       driver_unregister(&drv->driver);
+       goto out;
  }
  
  /**
  void
  pci_unregister_driver(struct pci_driver *drv)
  {
+       pci_remove_removeid_file(drv);
        pci_remove_newid_file(drv);
        driver_unregister(&drv->driver);
        pci_free_dynids(drv);
@@@ -1020,6 -1049,7 +1096,7 @@@ struct bus_type pci_bus_type = 
        .remove         = pci_device_remove,
        .shutdown       = pci_device_shutdown,
        .dev_attrs      = pci_dev_attrs,
+       .bus_attrs      = pci_bus_attrs,
        .pm             = PCI_PM_OPS_PTR,
  };
  
diff --combined drivers/pci/pci.c
@@@ -20,6 -20,8 +20,8 @@@
  #include <linux/pm_wakeup.h>
  #include <linux/interrupt.h>
  #include <asm/dma.h>  /* isa_dma_bridge_buggy */
+ #include <linux/device.h>
+ #include <asm/setup.h>
  #include "pci.h"
  
  unsigned int pci_pm_d3_delay = PCI_PM_D3_WAIT;
@@@ -426,6 -428,7 +428,6 @@@ static inline int platform_pci_sleep_wa
   *                           given PCI device
   * @dev: PCI device to handle.
   * @state: PCI power state (D0, D1, D2, D3hot) to put the device into.
 - * @wait: If 'true', wait for the device to change its power state
   *
   * RETURN VALUE:
   * -EINVAL if the requested state is invalid.
   * 0 if device already is in the requested state.
   * 0 if device's power state has been successfully changed.
   */
 -static int
 -pci_raw_set_power_state(struct pci_dev *dev, pci_power_t state, bool wait)
 +static int pci_raw_set_power_state(struct pci_dev *dev, pci_power_t state)
  {
        u16 pmcsr;
        bool need_restore = false;
  
 +      /* Check if we're already there */
 +      if (dev->current_state == state)
 +              return 0;
 +
        if (!dev->pm_cap)
                return -EIO;
  
         * Can enter D0 from any state, but if we can only go deeper 
         * to sleep if we're already in a low power state
         */
 -      if (dev->current_state == state) {
 -              /* we're already there */
 -              return 0;
 -      } else if (state != PCI_D0 && dev->current_state <= PCI_D3cold
 +      if (state != PCI_D0 && dev->current_state <= PCI_D3cold
            && dev->current_state > state) {
                dev_err(&dev->dev, "invalid power transition "
                        "(from state %d to %d)\n", dev->current_state, state);
                break;
        case PCI_UNKNOWN: /* Boot-up */
                if ((pmcsr & PCI_PM_CTRL_STATE_MASK) == PCI_D3hot
 -               && !(pmcsr & PCI_PM_CTRL_NO_SOFT_RESET)) {
 +               && !(pmcsr & PCI_PM_CTRL_NO_SOFT_RESET))
                        need_restore = true;
 -                      wait = true;
 -              }
                /* Fall-through: force to D0 */
        default:
                pmcsr = 0;
        /* enter specified state */
        pci_write_config_word(dev, dev->pm_cap + PCI_PM_CTRL, pmcsr);
  
 -      if (!wait)
 -              return 0;
 -
        /* Mandatory power management transition delays */
        /* see PCI PM 1.1 5.6.1 table 18 */
        if (state == PCI_D3hot || dev->current_state == PCI_D3hot)
        if (need_restore)
                pci_restore_bars(dev);
  
 -      if (wait && dev->bus->self)
 +      if (dev->bus->self)
                pcie_aspm_pm_state_change(dev->bus->self);
  
        return 0;
@@@ -539,53 -547,6 +541,53 @@@ void pci_update_current_state(struct pc
        }
  }
  
 +/**
 + * pci_platform_power_transition - Use platform to change device power state
 + * @dev: PCI device to handle.
 + * @state: State to put the device into.
 + */
 +static int pci_platform_power_transition(struct pci_dev *dev, pci_power_t state)
 +{
 +      int error;
 +
 +      if (platform_pci_power_manageable(dev)) {
 +              error = platform_pci_set_power_state(dev, state);
 +              if (!error)
 +                      pci_update_current_state(dev, state);
 +      } else {
 +              error = -ENODEV;
 +              /* Fall back to PCI_D0 if native PM is not supported */
 +              pci_update_current_state(dev, PCI_D0);
 +      }
 +
 +      return error;
 +}
 +
 +/**
 + * __pci_start_power_transition - Start power transition of a PCI device
 + * @dev: PCI device to handle.
 + * @state: State to put the device into.
 + */
 +static void __pci_start_power_transition(struct pci_dev *dev, pci_power_t state)
 +{
 +      if (state == PCI_D0)
 +              pci_platform_power_transition(dev, PCI_D0);
 +}
 +
 +/**
 + * __pci_complete_power_transition - Complete power transition of a PCI device
 + * @dev: PCI device to handle.
 + * @state: State to put the device into.
 + *
 + * This function should not be called directly by device drivers.
 + */
 +int __pci_complete_power_transition(struct pci_dev *dev, pci_power_t state)
 +{
 +      return state > PCI_D0 ?
 +                      pci_platform_power_transition(dev, state) : -EINVAL;
 +}
 +EXPORT_SYMBOL_GPL(__pci_complete_power_transition);
 +
  /**
   * pci_set_power_state - Set the power state of a PCI device
   * @dev: PCI device to handle.
@@@ -618,21 -579,30 +620,21 @@@ int pci_set_power_state(struct pci_dev 
                 */
                return 0;
  
 -      if (state == PCI_D0 && platform_pci_power_manageable(dev)) {
 -              /*
 -               * Allow the platform to change the state, for example via ACPI
 -               * _PR0, _PS0 and some such, but do not trust it.
 -               */
 -              int ret = platform_pci_set_power_state(dev, PCI_D0);
 -              if (!ret)
 -                      pci_update_current_state(dev, PCI_D0);
 -      }
 +      /* Check if we're already there */
 +      if (dev->current_state == state)
 +              return 0;
 +
 +      __pci_start_power_transition(dev, state);
 +
        /* This device is quirked not to be put into D3, so
           don't put it in D3 */
        if (state == PCI_D3hot && (dev->dev_flags & PCI_DEV_FLAGS_NO_D3))
                return 0;
  
 -      error = pci_raw_set_power_state(dev, state, true);
 +      error = pci_raw_set_power_state(dev, state);
  
 -      if (state > PCI_D0 && platform_pci_power_manageable(dev)) {
 -              /* Allow the platform to finalize the transition */
 -              int ret = platform_pci_set_power_state(dev, state);
 -              if (!ret) {
 -                      pci_update_current_state(dev, state);
 -                      error = 0;
 -              }
 -      }
 +      if (!__pci_complete_power_transition(dev, state))
 +              error = 0;
  
        return error;
  }
@@@ -677,6 -647,8 +679,8 @@@ pci_power_t pci_choose_state(struct pci
  
  EXPORT_SYMBOL(pci_choose_state);
  
+ #define PCI_EXP_SAVE_REGS     7
  static int pci_save_pcie_state(struct pci_dev *dev)
  {
        int pos, i = 0;
  
        save_state = pci_find_saved_cap(dev, PCI_CAP_ID_EXP);
        if (!save_state) {
-               dev_err(&dev->dev, "buffer not found in %s\n", __FUNCTION__);
+               dev_err(&dev->dev, "buffer not found in %s\n", __func__);
                return -ENOMEM;
        }
        cap = (u16 *)&save_state->data[0];
        pci_read_config_word(dev, pos + PCI_EXP_LNKCTL, &cap[i++]);
        pci_read_config_word(dev, pos + PCI_EXP_SLTCTL, &cap[i++]);
        pci_read_config_word(dev, pos + PCI_EXP_RTCTL, &cap[i++]);
+       pci_read_config_word(dev, pos + PCI_EXP_DEVCTL2, &cap[i++]);
+       pci_read_config_word(dev, pos + PCI_EXP_LNKCTL2, &cap[i++]);
+       pci_read_config_word(dev, pos + PCI_EXP_SLTCTL2, &cap[i++]);
  
        return 0;
  }
@@@ -718,6 -693,9 +725,9 @@@ static void pci_restore_pcie_state(stru
        pci_write_config_word(dev, pos + PCI_EXP_LNKCTL, cap[i++]);
        pci_write_config_word(dev, pos + PCI_EXP_SLTCTL, cap[i++]);
        pci_write_config_word(dev, pos + PCI_EXP_RTCTL, cap[i++]);
+       pci_write_config_word(dev, pos + PCI_EXP_DEVCTL2, cap[i++]);
+       pci_write_config_word(dev, pos + PCI_EXP_LNKCTL2, cap[i++]);
+       pci_write_config_word(dev, pos + PCI_EXP_SLTCTL2, cap[i++]);
  }
  
  
@@@ -732,7 -710,7 +742,7 @@@ static int pci_save_pcix_state(struct p
  
        save_state = pci_find_saved_cap(dev, PCI_CAP_ID_PCIX);
        if (!save_state) {
-               dev_err(&dev->dev, "buffer not found in %s\n", __FUNCTION__);
+               dev_err(&dev->dev, "buffer not found in %s\n", __func__);
                return -ENOMEM;
        }
  
@@@ -805,6 -783,7 +815,7 @@@ pci_restore_state(struct pci_dev *dev
        }
        pci_restore_pcix_state(dev);
        pci_restore_msi_state(dev);
+       pci_restore_iov_state(dev);
  
        return 0;
  }
@@@ -1263,7 -1242,7 +1274,7 @@@ int pci_prepare_to_sleep(struct pci_de
        if (target_state == PCI_POWER_ERROR)
                return -EIO;
  
 -      pci_enable_wake(dev, target_state, true);
 +      pci_enable_wake(dev, target_state, device_may_wakeup(&dev->dev));
  
        error = pci_set_power_state(dev, target_state);
  
@@@ -1401,7 -1380,8 +1412,8 @@@ void pci_allocate_cap_save_buffers(stru
  {
        int error;
  
-       error = pci_add_cap_save_buffer(dev, PCI_CAP_ID_EXP, 4 * sizeof(u16));
+       error = pci_add_cap_save_buffer(dev, PCI_CAP_ID_EXP,
+                                       PCI_EXP_SAVE_REGS * sizeof(u16));
        if (error)
                dev_err(&dev->dev,
                        "unable to preallocate PCI Express save buffer\n");
                        "unable to preallocate PCI-X save buffer\n");
  }
  
 -/**
 - * pci_restore_standard_config - restore standard config registers of PCI device
 - * @dev: PCI device to handle
 - *
 - * This function assumes that the device's configuration space is accessible.
 - * If the device needs to be powered up, the function will wait for it to
 - * change the state.
 - */
 -int pci_restore_standard_config(struct pci_dev *dev)
 -{
 -      pci_power_t prev_state;
 -      int error;
 -
 -      pci_update_current_state(dev, PCI_D0);
 -
 -      prev_state = dev->current_state;
 -      if (prev_state == PCI_D0)
 -              goto Restore;
 -
 -      error = pci_raw_set_power_state(dev, PCI_D0, false);
 -      if (error)
 -              return error;
 -
 -      /*
 -       * This assumes that we won't get a bus in B2 or B3 from the BIOS, but
 -       * we've made this assumption forever and it appears to be universally
 -       * satisfied.
 -       */
 -      switch(prev_state) {
 -      case PCI_D3cold:
 -      case PCI_D3hot:
 -              mdelay(pci_pm_d3_delay);
 -              break;
 -      case PCI_D2:
 -              udelay(PCI_PM_D2_DELAY);
 -              break;
 -      }
 -
 -      pci_update_current_state(dev, PCI_D0);
 -
 - Restore:
 -      return dev->state_saved ? pci_restore_state(dev) : 0;
 -}
 -
  /**
   * pci_enable_ari - enable ARI forwarding if hardware support it
   * @dev: the PCI device
@@@ -1472,7 -1496,7 +1484,7 @@@ pci_get_interrupt_pin(struct pci_dev *d
        if (!pin)
                return -1;
  
-       while (dev->bus->self) {
+       while (dev->bus->parent) {
                pin = pci_swizzle_interrupt_pin(dev, pin);
                dev = dev->bus->self;
        }
@@@ -1492,7 -1516,7 +1504,7 @@@ u8 pci_common_swizzle(struct pci_dev *d
  {
        u8 pin = *pinp;
  
-       while (dev->bus->self) {
+       while (dev->bus->parent) {
                pin = pci_swizzle_interrupt_pin(dev, pin);
                dev = dev->bus->self;
        }
@@@ -2016,18 -2040,24 +2028,24 @@@ static int __pcie_flr(struct pci_dev *d
        pci_block_user_cfg_access(dev);
  
        /* Wait for Transaction Pending bit clean */
+       pci_read_config_word(dev, exppos + PCI_EXP_DEVSTA, &status);
+       if (!(status & PCI_EXP_DEVSTA_TRPND))
+               goto transaction_done;
        msleep(100);
        pci_read_config_word(dev, exppos + PCI_EXP_DEVSTA, &status);
-       if (status & PCI_EXP_DEVSTA_TRPND) {
-               dev_info(&dev->dev, "Busy after 100ms while trying to reset; "
+       if (!(status & PCI_EXP_DEVSTA_TRPND))
+               goto transaction_done;
+       dev_info(&dev->dev, "Busy after 100ms while trying to reset; "
                        "sleeping for 1 second\n");
-               ssleep(1);
-               pci_read_config_word(dev, exppos + PCI_EXP_DEVSTA, &status);
-               if (status & PCI_EXP_DEVSTA_TRPND)
-                       dev_info(&dev->dev, "Still busy after 1s; "
+       ssleep(1);
+       pci_read_config_word(dev, exppos + PCI_EXP_DEVSTA, &status);
+       if (status & PCI_EXP_DEVSTA_TRPND)
+               dev_info(&dev->dev, "Still busy after 1s; "
                                "proceeding with reset anyway\n");
-       }
  
+ transaction_done:
        pci_write_config_word(dev, exppos + PCI_EXP_DEVCTL,
                                PCI_EXP_DEVCTL_BCR_FLR);
        mdelay(100);
@@@ -2054,18 -2084,24 +2072,24 @@@ static int __pci_af_flr(struct pci_dev 
        pci_block_user_cfg_access(dev);
  
        /* Wait for Transaction Pending bit clean */
+       pci_read_config_byte(dev, cappos + PCI_AF_STATUS, &status);
+       if (!(status & PCI_AF_STATUS_TP))
+               goto transaction_done;
        msleep(100);
        pci_read_config_byte(dev, cappos + PCI_AF_STATUS, &status);
-       if (status & PCI_AF_STATUS_TP) {
-               dev_info(&dev->dev, "Busy after 100ms while trying to"
-                               " reset; sleeping for 1 second\n");
-               ssleep(1);
-               pci_read_config_byte(dev,
-                               cappos + PCI_AF_STATUS, &status);
-               if (status & PCI_AF_STATUS_TP)
-                       dev_info(&dev->dev, "Still busy after 1s; "
-                                       "proceeding with reset anyway\n");
-       }
+       if (!(status & PCI_AF_STATUS_TP))
+               goto transaction_done;
+       dev_info(&dev->dev, "Busy after 100ms while trying to"
+                       " reset; sleeping for 1 second\n");
+       ssleep(1);
+       pci_read_config_byte(dev, cappos + PCI_AF_STATUS, &status);
+       if (status & PCI_AF_STATUS_TP)
+               dev_info(&dev->dev, "Still busy after 1s; "
+                               "proceeding with reset anyway\n");
+ transaction_done:
        pci_write_config_byte(dev, cappos + PCI_AF_CTRL, PCI_AF_CTRL_FLR);
        mdelay(100);
  
@@@ -2334,18 -2370,140 +2358,140 @@@ int pci_select_bars(struct pci_dev *dev
   */
  int pci_resource_bar(struct pci_dev *dev, int resno, enum pci_bar_type *type)
  {
+       int reg;
        if (resno < PCI_ROM_RESOURCE) {
                *type = pci_bar_unknown;
                return PCI_BASE_ADDRESS_0 + 4 * resno;
        } else if (resno == PCI_ROM_RESOURCE) {
                *type = pci_bar_mem32;
                return dev->rom_base_reg;
+       } else if (resno < PCI_BRIDGE_RESOURCES) {
+               /* device specific resource */
+               reg = pci_iov_resource_bar(dev, resno, type);
+               if (reg)
+                       return reg;
        }
  
        dev_err(&dev->dev, "BAR: invalid resource #%d\n", resno);
        return 0;
  }
  
+ #define RESOURCE_ALIGNMENT_PARAM_SIZE COMMAND_LINE_SIZE
+ static char resource_alignment_param[RESOURCE_ALIGNMENT_PARAM_SIZE] = {0};
+ spinlock_t resource_alignment_lock = SPIN_LOCK_UNLOCKED;
+ /**
+  * pci_specified_resource_alignment - get resource alignment specified by user.
+  * @dev: the PCI device to get
+  *
+  * RETURNS: Resource alignment if it is specified.
+  *          Zero if it is not specified.
+  */
+ resource_size_t pci_specified_resource_alignment(struct pci_dev *dev)
+ {
+       int seg, bus, slot, func, align_order, count;
+       resource_size_t align = 0;
+       char *p;
+       spin_lock(&resource_alignment_lock);
+       p = resource_alignment_param;
+       while (*p) {
+               count = 0;
+               if (sscanf(p, "%d%n", &align_order, &count) == 1 &&
+                                                       p[count] == '@') {
+                       p += count + 1;
+               } else {
+                       align_order = -1;
+               }
+               if (sscanf(p, "%x:%x:%x.%x%n",
+                       &seg, &bus, &slot, &func, &count) != 4) {
+                       seg = 0;
+                       if (sscanf(p, "%x:%x.%x%n",
+                                       &bus, &slot, &func, &count) != 3) {
+                               /* Invalid format */
+                               printk(KERN_ERR "PCI: Can't parse resource_alignment parameter: %s\n",
+                                       p);
+                               break;
+                       }
+               }
+               p += count;
+               if (seg == pci_domain_nr(dev->bus) &&
+                       bus == dev->bus->number &&
+                       slot == PCI_SLOT(dev->devfn) &&
+                       func == PCI_FUNC(dev->devfn)) {
+                       if (align_order == -1) {
+                               align = PAGE_SIZE;
+                       } else {
+                               align = 1 << align_order;
+                       }
+                       /* Found */
+                       break;
+               }
+               if (*p != ';' && *p != ',') {
+                       /* End of param or invalid format */
+                       break;
+               }
+               p++;
+       }
+       spin_unlock(&resource_alignment_lock);
+       return align;
+ }
+ /**
+  * pci_is_reassigndev - check if specified PCI is target device to reassign
+  * @dev: the PCI device to check
+  *
+  * RETURNS: non-zero for PCI device is a target device to reassign,
+  *          or zero is not.
+  */
+ int pci_is_reassigndev(struct pci_dev *dev)
+ {
+       return (pci_specified_resource_alignment(dev) != 0);
+ }
+ ssize_t pci_set_resource_alignment_param(const char *buf, size_t count)
+ {
+       if (count > RESOURCE_ALIGNMENT_PARAM_SIZE - 1)
+               count = RESOURCE_ALIGNMENT_PARAM_SIZE - 1;
+       spin_lock(&resource_alignment_lock);
+       strncpy(resource_alignment_param, buf, count);
+       resource_alignment_param[count] = '\0';
+       spin_unlock(&resource_alignment_lock);
+       return count;
+ }
+ ssize_t pci_get_resource_alignment_param(char *buf, size_t size)
+ {
+       size_t count;
+       spin_lock(&resource_alignment_lock);
+       count = snprintf(buf, size, "%s", resource_alignment_param);
+       spin_unlock(&resource_alignment_lock);
+       return count;
+ }
+ static ssize_t pci_resource_alignment_show(struct bus_type *bus, char *buf)
+ {
+       return pci_get_resource_alignment_param(buf, PAGE_SIZE);
+ }
+ static ssize_t pci_resource_alignment_store(struct bus_type *bus,
+                                       const char *buf, size_t count)
+ {
+       return pci_set_resource_alignment_param(buf, count);
+ }
+ BUS_ATTR(resource_alignment, 0644, pci_resource_alignment_show,
+                                       pci_resource_alignment_store);
+ static int __init pci_resource_alignment_sysfs_init(void)
+ {
+       return bus_create_file(&pci_bus_type,
+                                       &bus_attr_resource_alignment);
+ }
+ late_initcall(pci_resource_alignment_sysfs_init);
  static void __devinit pci_no_domains(void)
  {
  #ifdef CONFIG_PCI_DOMAINS
@@@ -2394,6 -2552,9 +2540,9 @@@ static int __init pci_setup(char *str
                                pci_cardbus_io_size = memparse(str + 9, &str);
                        } else if (!strncmp(str, "cbmemsize=", 10)) {
                                pci_cardbus_mem_size = memparse(str + 10, &str);
+                       } else if (!strncmp(str, "resource_alignment=", 19)) {
+                               pci_set_resource_alignment_param(str + 19,
+                                                       strlen(str + 19));
                        } else {
                                printk(KERN_ERR "PCI: Unknown option `%s'\n",
                                                str);
diff --combined drivers/pci/pci.h
@@@ -1,6 -1,8 +1,8 @@@
  #ifndef DRIVERS_PCI_H
  #define DRIVERS_PCI_H
  
+ #include <linux/workqueue.h>
  #define PCI_CFG_SPACE_SIZE    256
  #define PCI_CFG_SPACE_EXP_SIZE        4096
  
@@@ -49,6 -51,7 +51,6 @@@ extern void pci_disable_enabled_device(
  extern void pci_pm_init(struct pci_dev *dev);
  extern void platform_pci_wakeup_init(struct pci_dev *dev);
  extern void pci_allocate_cap_save_buffers(struct pci_dev *dev);
 -extern int pci_restore_standard_config(struct pci_dev *dev);
  
  static inline bool pci_is_bridge(struct pci_dev *pci_dev)
  {
@@@ -135,6 -138,12 +137,12 @@@ extern int pcie_mch_quirk
  extern struct device_attribute pci_dev_attrs[];
  extern struct device_attribute dev_attr_cpuaffinity;
  extern struct device_attribute dev_attr_cpulistaffinity;
+ #ifdef CONFIG_HOTPLUG
+ extern struct bus_attribute pci_bus_attrs[];
+ #else
+ #define pci_bus_attrs NULL
+ #endif
  
  /**
   * pci_match_one_device - Tell if a PCI device structure has a matching
@@@ -177,6 -186,7 +185,7 @@@ enum pci_bar_type 
        pci_bar_mem64,          /* A 64-bit memory BAR */
  };
  
+ extern int pci_setup_device(struct pci_dev *dev);
  extern int __pci_read_base(struct pci_dev *dev, enum pci_bar_type type,
                                struct resource *res, unsigned int reg);
  extern int pci_resource_bar(struct pci_dev *dev, int resno,
@@@ -194,4 -204,60 +203,60 @@@ static inline int pci_ari_enabled(struc
        return bus->self && bus->self->ari_enabled;
  }
  
+ #ifdef CONFIG_PCI_QUIRKS
+ extern int pci_is_reassigndev(struct pci_dev *dev);
+ resource_size_t pci_specified_resource_alignment(struct pci_dev *dev);
+ extern void pci_disable_bridge_window(struct pci_dev *dev);
+ #endif
+ /* Single Root I/O Virtualization */
+ struct pci_sriov {
+       int pos;                /* capability position */
+       int nres;               /* number of resources */
+       u32 cap;                /* SR-IOV Capabilities */
+       u16 ctrl;               /* SR-IOV Control */
+       u16 total;              /* total VFs associated with the PF */
+       u16 initial;            /* initial VFs associated with the PF */
+       u16 nr_virtfn;          /* number of VFs available */
+       u16 offset;             /* first VF Routing ID offset */
+       u16 stride;             /* following VF stride */
+       u32 pgsz;               /* page size for BAR alignment */
+       u8 link;                /* Function Dependency Link */
+       struct pci_dev *dev;    /* lowest numbered PF */
+       struct pci_dev *self;   /* this PF */
+       struct mutex lock;      /* lock for VF bus */
+       struct work_struct mtask; /* VF Migration task */
+       u8 __iomem *mstate;     /* VF Migration State Array */
+ };
+ #ifdef CONFIG_PCI_IOV
+ extern int pci_iov_init(struct pci_dev *dev);
+ extern void pci_iov_release(struct pci_dev *dev);
+ extern int pci_iov_resource_bar(struct pci_dev *dev, int resno,
+                               enum pci_bar_type *type);
+ extern void pci_restore_iov_state(struct pci_dev *dev);
+ extern int pci_iov_bus_range(struct pci_bus *bus);
+ #else
+ static inline int pci_iov_init(struct pci_dev *dev)
+ {
+       return -ENODEV;
+ }
+ static inline void pci_iov_release(struct pci_dev *dev)
+ {
+ }
+ static inline int pci_iov_resource_bar(struct pci_dev *dev, int resno,
+                                      enum pci_bar_type *type)
+ {
+       return 0;
+ }
+ static inline void pci_restore_iov_state(struct pci_dev *dev)
+ {
+ }
+ static inline int pci_iov_bus_range(struct pci_bus *bus)
+ {
+       return 0;
+ }
+ #endif /* CONFIG_PCI_IOV */
  #endif /* DRIVERS_PCI_H */
diff --combined include/linux/acpi.h
@@@ -79,7 -79,6 +79,7 @@@ typedef int (*acpi_table_handler) (stru
  typedef int (*acpi_table_entry_handler) (struct acpi_subtable_header *header, const unsigned long end);
  
  char * __acpi_map_table (unsigned long phys_addr, unsigned long size);
 +void __acpi_unmap_table(char *map, unsigned long size);
  int early_acpi_boot_init(void);
  int acpi_boot_init (void);
  int acpi_boot_table_init (void);
@@@ -257,6 -256,40 +257,40 @@@ void __init acpi_no_s4_hw_signature(voi
  void __init acpi_old_suspend_ordering(void);
  void __init acpi_s4_no_nvs(void);
  #endif /* CONFIG_PM_SLEEP */
+ #define OSC_QUERY_TYPE                        0
+ #define OSC_SUPPORT_TYPE              1
+ #define OSC_CONTROL_TYPE              2
+ #define OSC_SUPPORT_MASKS             0x1f
+ /* _OSC DW0 Definition */
+ #define OSC_QUERY_ENABLE              1
+ #define OSC_REQUEST_ERROR             2
+ #define OSC_INVALID_UUID_ERROR                4
+ #define OSC_INVALID_REVISION_ERROR    8
+ #define OSC_CAPABILITIES_MASK_ERROR   16
+ /* _OSC DW1 Definition (OS Support Fields) */
+ #define OSC_EXT_PCI_CONFIG_SUPPORT            1
+ #define OSC_ACTIVE_STATE_PWR_SUPPORT          2
+ #define OSC_CLOCK_PWR_CAPABILITY_SUPPORT      4
+ #define OSC_PCI_SEGMENT_GROUPS_SUPPORT                8
+ #define OSC_MSI_SUPPORT                               16
+ /* _OSC DW1 Definition (OS Control Fields) */
+ #define OSC_PCI_EXPRESS_NATIVE_HP_CONTROL     1
+ #define OSC_SHPC_NATIVE_HP_CONTROL            2
+ #define OSC_PCI_EXPRESS_PME_CONTROL           4
+ #define OSC_PCI_EXPRESS_AER_CONTROL           8
+ #define OSC_PCI_EXPRESS_CAP_STRUCTURE_CONTROL 16
+ #define OSC_CONTROL_MASKS     (OSC_PCI_EXPRESS_NATIVE_HP_CONTROL |    \
+                               OSC_SHPC_NATIVE_HP_CONTROL |            \
+                               OSC_PCI_EXPRESS_PME_CONTROL |           \
+                               OSC_PCI_EXPRESS_AER_CONTROL |           \
+                               OSC_PCI_EXPRESS_CAP_STRUCTURE_CONTROL)
+ extern acpi_status acpi_pci_osc_control_set(acpi_handle handle, u32 flags);
  #else /* CONFIG_ACPI */
  
  static inline int early_acpi_boot_init(void)
diff --combined include/linux/pci.h
@@@ -52,6 -52,7 +52,7 @@@
  #include <asm/atomic.h>
  #include <linux/device.h>
  #include <linux/io.h>
+ #include <linux/irqreturn.h>
  
  /* Include the ID list */
  #include <linux/pci_ids.h>
@@@ -93,6 -94,12 +94,12 @@@ enum 
        /* #6: expansion ROM resource */
        PCI_ROM_RESOURCE,
  
+       /* device specific resources */
+ #ifdef CONFIG_PCI_IOV
+       PCI_IOV_RESOURCES,
+       PCI_IOV_RESOURCE_END = PCI_IOV_RESOURCES + PCI_SRIOV_NUM_BARS - 1,
+ #endif
        /* resources assigned to buses behind the bridge */
  #define PCI_BRIDGE_RESOURCE_NUM 4
  
@@@ -180,6 -187,7 +187,7 @@@ struct pci_cap_saved_state 
  
  struct pcie_link_state;
  struct pci_vpd;
+ struct pci_sriov;
  
  /*
   * The pci_dev structure is used to describe PCI devices.
@@@ -257,6 -265,8 +265,8 @@@ struct pci_dev 
        unsigned int    is_managed:1;
        unsigned int    is_pcie:1;
        unsigned int    state_saved:1;
+       unsigned int    is_physfn:1;
+       unsigned int    is_virtfn:1;
        pci_dev_flags_t dev_flags;
        atomic_t        enable_cnt;     /* pci_enable_device has been called */
  
        struct list_head msi_list;
  #endif
        struct pci_vpd *vpd;
+ #ifdef CONFIG_PCI_IOV
+       union {
+               struct pci_sriov *sriov;        /* SR-IOV capability related */
+               struct pci_dev *physfn; /* the PF this VF is associated with */
+       };
+ #endif
  };
  
  extern struct pci_dev *alloc_pci_dev(void);
@@@ -341,6 -357,15 +357,15 @@@ struct pci_bus 
  #define pci_bus_b(n)  list_entry(n, struct pci_bus, node)
  #define to_pci_bus(n) container_of(n, struct pci_bus, dev)
  
+ /*
+  * Returns true if the pci bus is root (behind host-pci bridge),
+  * false otherwise
+  */
+ static inline bool pci_is_root_bus(struct pci_bus *pbus)
+ {
+       return !(pbus->parent);
+ }
  #ifdef CONFIG_PCI_MSI
  static inline bool pci_dev_msi_enabled(struct pci_dev *pci_dev)
  {
@@@ -528,7 -553,7 +553,7 @@@ void pcibios_update_irq(struct pci_dev 
  /* Generic PCI functions used internally */
  
  extern struct pci_bus *pci_find_bus(int domain, int busnr);
- void pci_bus_add_devices(struct pci_bus *bus);
+ void pci_bus_add_devices(const struct pci_bus *bus);
  struct pci_bus *pci_scan_bus_parented(struct device *parent, int bus,
                                      struct pci_ops *ops, void *sysdata);
  static inline struct pci_bus * __devinit pci_scan_bus(int bus, struct pci_ops *ops,
@@@ -689,7 -714,6 +714,7 @@@ size_t pci_get_rom_size(struct pci_dev 
  /* Power management related routines */
  int pci_save_state(struct pci_dev *dev);
  int pci_restore_state(struct pci_dev *dev);
 +int __pci_complete_power_transition(struct pci_dev *dev, pci_power_t state);
  int pci_set_power_state(struct pci_dev *dev, pci_power_t state);
  pci_power_t pci_choose_state(struct pci_dev *dev, pm_message_t state);
  bool pci_pme_capable(struct pci_dev *dev, pci_power_t state);
@@@ -702,6 -726,9 +727,9 @@@ int pci_back_from_sleep(struct pci_dev 
  
  /* Functions for PCI Hotplug drivers to use */
  int pci_bus_find_capability(struct pci_bus *bus, unsigned int devfn, int cap);
+ #ifdef CONFIG_HOTPLUG
+ unsigned int pci_rescan_bus(struct pci_bus *bus);
+ #endif
  
  /* Vital product data routines */
  ssize_t pci_read_vpd(struct pci_dev *dev, loff_t pos, size_t count, void *buf);
@@@ -709,7 -736,7 +737,7 @@@ ssize_t pci_write_vpd(struct pci_dev *d
  int pci_vpd_truncate(struct pci_dev *dev, size_t size);
  
  /* Helper functions for low-level code (drivers/pci/setup-[bus,res].c) */
- void pci_bus_assign_resources(struct pci_bus *bus);
+ void pci_bus_assign_resources(const struct pci_bus *bus);
  void pci_bus_size_bridges(struct pci_bus *bus);
  int pci_claim_resource(struct pci_dev *, int);
  void pci_assign_unassigned_resources(void);
@@@ -790,7 -817,7 +818,7 @@@ struct msix_entry 
  
  
  #ifndef CONFIG_PCI_MSI
- static inline int pci_enable_msi(struct pci_dev *dev)
+ static inline int pci_enable_msi_block(struct pci_dev *dev, unsigned int nvec)
  {
        return -1;
  }
@@@ -800,6 -827,10 +828,10 @@@ static inline void pci_msi_shutdown(str
  static inline void pci_disable_msi(struct pci_dev *dev)
  { }
  
+ static inline int pci_msix_table_size(struct pci_dev *dev)
+ {
+       return 0;
+ }
  static inline int pci_enable_msix(struct pci_dev *dev,
                                  struct msix_entry *entries, int nvec)
  {
@@@ -821,9 -852,10 +853,10 @@@ static inline int pci_msi_enabled(void
        return 0;
  }
  #else
- extern int pci_enable_msi(struct pci_dev *dev);
+ extern int pci_enable_msi_block(struct pci_dev *dev, unsigned int nvec);
  extern void pci_msi_shutdown(struct pci_dev *dev);
  extern void pci_disable_msi(struct pci_dev *dev);
+ extern int pci_msix_table_size(struct pci_dev *dev);
  extern int pci_enable_msix(struct pci_dev *dev,
        struct msix_entry *entries, int nvec);
  extern void pci_msix_shutdown(struct pci_dev *dev);
@@@ -842,6 -874,8 +875,8 @@@ static inline int pcie_aspm_enabled(voi
  extern int pcie_aspm_enabled(void);
  #endif
  
+ #define pci_enable_msi(pdev)  pci_enable_msi_block(pdev, 1)
  #ifdef CONFIG_HT_IRQ
  /* The functions a driver should call */
  int  ht_create_irq(struct pci_dev *dev, int idx);
@@@ -1195,5 -1229,23 +1230,23 @@@ int pci_ext_cfg_avail(struct pci_dev *d
  
  void __iomem *pci_ioremap_bar(struct pci_dev *pdev, int bar);
  
+ #ifdef CONFIG_PCI_IOV
+ extern int pci_enable_sriov(struct pci_dev *dev, int nr_virtfn);
+ extern void pci_disable_sriov(struct pci_dev *dev);
+ extern irqreturn_t pci_sriov_migration(struct pci_dev *dev);
+ #else
+ static inline int pci_enable_sriov(struct pci_dev *dev, int nr_virtfn)
+ {
+       return -ENODEV;
+ }
+ static inline void pci_disable_sriov(struct pci_dev *dev)
+ {
+ }
+ static inline irqreturn_t pci_sriov_migration(struct pci_dev *dev)
+ {
+       return IRQ_NONE;
+ }
+ #endif
  #endif /* __KERNEL__ */
  #endif /* LINUX_PCI_H */
diff --combined include/linux/pci_ids.h
  #define PCI_DEVICE_ID_PROMISE_20276   0x5275
  #define PCI_DEVICE_ID_PROMISE_20277   0x7275
  
 +#define PCI_VENDOR_ID_FOXCONN         0x105b
 +
  #define PCI_VENDOR_ID_UMC             0x1060
  #define PCI_DEVICE_ID_UMC_UM8673F     0x0101
  #define PCI_DEVICE_ID_UMC_UM8886BF    0x673a
  #define PCI_DEVICE_ID_NVIDIA_NVENET_21              0x0451
  #define PCI_DEVICE_ID_NVIDIA_NVENET_22              0x0452
  #define PCI_DEVICE_ID_NVIDIA_NVENET_23              0x0453
 +#define PCI_DEVICE_ID_NVIDIA_NFORCE_MCP67_SMBUS     0x0542
  #define PCI_DEVICE_ID_NVIDIA_NVENET_24              0x054C
  #define PCI_DEVICE_ID_NVIDIA_NVENET_25              0x054D
  #define PCI_DEVICE_ID_NVIDIA_NVENET_26              0x054E
  #define PCI_DEVICE_ID_NVIDIA_NVENET_31              0x07DF
  #define PCI_DEVICE_ID_NVIDIA_NFORCE_MCP67_IDE       0x0560
  #define PCI_DEVICE_ID_NVIDIA_NFORCE_MCP73_IDE       0x056C
 +#define PCI_DEVICE_ID_NVIDIA_NFORCE_MCP78S_SMBUS    0x0752
  #define PCI_DEVICE_ID_NVIDIA_NFORCE_MCP77_IDE       0x0759
  #define PCI_DEVICE_ID_NVIDIA_NVENET_32              0x0760
  #define PCI_DEVICE_ID_NVIDIA_NVENET_33              0x0761
  #define PCI_DEVICE_ID_NVIDIA_NVENET_34              0x0762
  #define PCI_DEVICE_ID_NVIDIA_NVENET_35              0x0763
 +#define PCI_DEVICE_ID_NVIDIA_NFORCE_MCP73_SMBUS     0x07D8
 +#define PCI_DEVICE_ID_NVIDIA_NFORCE_MCP79_SMBUS     0x0AA2
  #define PCI_DEVICE_ID_NVIDIA_NVENET_36              0x0AB0
  #define PCI_DEVICE_ID_NVIDIA_NVENET_37              0x0AB1
  #define PCI_DEVICE_ID_NVIDIA_NVENET_38              0x0AB2
  #define PCI_DEVICE_ID_SERVERWORKS_HT1000IDE 0x0214
  #define PCI_DEVICE_ID_SERVERWORKS_CSB6IDE2 0x0217
  #define PCI_DEVICE_ID_SERVERWORKS_CSB6LPC 0x0227
 +#define PCI_DEVICE_ID_SERVERWORKS_HT1100LD 0x0408
  
  #define PCI_VENDOR_ID_SBE             0x1176
  #define PCI_DEVICE_ID_SBE_WANXL100    0x0301
  
  #define PCI_VENDOR_ID_SAMSUNG         0x144d
  
 +#define PCI_VENDOR_ID_AMBIT           0x1468
 +
  #define PCI_VENDOR_ID_MYRICOM         0x14c1
  
  #define PCI_VENDOR_ID_TITAN           0x14D2
  #define PCI_DEVICE_ID_MELLANOX_SINAI_OLD 0x5e8c
  #define PCI_DEVICE_ID_MELLANOX_SINAI  0x6274
  
 +#define PCI_VENDOR_ID_DFI             0x15bd
 +
  #define PCI_VENDOR_ID_QUICKNET                0x15e2
  #define PCI_DEVICE_ID_QUICKNET_XJ     0x0500
  
  
  #define PCI_VENDOR_ID_TOPSPIN         0x1867
  
 +#define PCI_VENDOR_ID_SILAN           0x1904
 +
  #define PCI_VENDOR_ID_TDI               0x192E
  #define PCI_DEVICE_ID_TDI_EHCI          0x0101
  
  #define PCI_VENDOR_ID_FREESCALE               0x1957
 +#define PCI_DEVICE_ID_MPC8315E                0x00b4
 +#define PCI_DEVICE_ID_MPC8315         0x00b5
 +#define PCI_DEVICE_ID_MPC8314E                0x00b6
 +#define PCI_DEVICE_ID_MPC8314         0x00b7
 +#define PCI_DEVICE_ID_MPC8378E                0x00c4
 +#define PCI_DEVICE_ID_MPC8378         0x00c5
 +#define PCI_DEVICE_ID_MPC8377E                0x00c6
 +#define PCI_DEVICE_ID_MPC8377         0x00c7
  #define PCI_DEVICE_ID_MPC8548E                0x0012
  #define PCI_DEVICE_ID_MPC8548         0x0013
  #define PCI_DEVICE_ID_MPC8543E                0x0014
  #define PCI_DEVICE_ID_KORENIX_JETCARDF0       0x1600
  #define PCI_DEVICE_ID_KORENIX_JETCARDF1       0x16ff
  
 +#define PCI_VENDOR_ID_QMI             0x1a32
 +
  #define PCI_VENDOR_ID_TEKRAM          0x1de1
  #define PCI_DEVICE_ID_TEKRAM_DC290    0xdc29
  
  #define PCI_DEVICE_ID_INTEL_82801CA_12        0x248c
  #define PCI_DEVICE_ID_INTEL_82801DB_0 0x24c0
  #define PCI_DEVICE_ID_INTEL_82801DB_1 0x24c1
+ #define PCI_DEVICE_ID_INTEL_82801DB_2 0x24c2
  #define PCI_DEVICE_ID_INTEL_82801DB_3 0x24c3
  #define PCI_DEVICE_ID_INTEL_82801DB_5 0x24c5
  #define PCI_DEVICE_ID_INTEL_82801DB_6 0x24c6