x86, mm: Avoid unnecessary TLB flush
authorShaohua Li <shaohua.li@intel.com>
Mon, 16 Aug 2010 01:16:55 +0000 (09:16 +0800)
committerH. Peter Anvin <hpa@zytor.com>
Mon, 23 Aug 2010 17:04:57 +0000 (10:04 -0700)
commit61c77326d1df079f202fa79403c3ccd8c5966a81
tree57780e6b94f24f402d1c9036d6e7cf37a359c22f
parent76be97c1fc945db08aae1f1b746012662d643e97
x86, mm: Avoid unnecessary TLB flush

In x86, access and dirty bits are set automatically by CPU when CPU accesses
memory. When we go into the code path of below flush_tlb_fix_spurious_fault(),
we already set dirty bit for pte and don't need flush tlb. This might mean
tlb entry in some CPUs hasn't dirty bit set, but this doesn't matter. When
the CPUs do page write, they will automatically check the bit and no software
involved.

On the other hand, flush tlb in below position is harmful. Test creates CPU
number of threads, each thread writes to a same but random address in same vma
range and we measure the total time. Under a 4 socket system, original time is
1.96s, while with the patch, the time is 0.8s. Under a 2 socket system, there is
20% time cut too. perf shows a lot of time are taking to send ipi/handle ipi for
tlb flush.

Signed-off-by: Shaohua Li <shaohua.li@intel.com>
LKML-Reference: <20100816011655.GA362@sli10-desk.sh.intel.com>
Acked-by: Suresh Siddha <suresh.b.siddha@intel.com>
Cc: Andrea Archangeli <aarcange@redhat.com>
Signed-off-by: H. Peter Anvin <hpa@zytor.com>
arch/x86/include/asm/pgtable.h
include/asm-generic/pgtable.h
mm/memory.c