ARM64: mm: Restore memblock limit when map_mem finished.
authorSteve Capper <steve.capper@linaro.org>
Tue, 30 Apr 2013 10:00:33 +0000 (11:00 +0100)
committerSteve Capper <steve.capper@linaro.org>
Fri, 14 Jun 2013 08:40:39 +0000 (09:40 +0100)
commitf6bc87c39d52b2b7aa83f16fcee46daefd26cd4d
tree6422636e05c815de49a5328860ce3f6a060d11cd
parentdfa5e237e935bc6712c9ac2f52a5469a0df85bcf
ARM64: mm: Restore memblock limit when map_mem finished.

In paging_init the memblock limit is set to restrict any addresses
returned by early_alloc to fit within the initial direct kernel
mapping in swapper_pg_dir. This allows map_mem to allocate puds,
pmds and ptes from the initial direct kernel mapping.

The limit stays low after paging_init() though, meaning any
bootmem allocations will be from a restricted subset of memory.
Gigabyte huge pages, for instance, are normally allocated from
bootmem as their order (18) is too large for the default buddy
allocator (MAX_ORDER = 11).

This patch restores the memblock limit when map_mem has finished,
allowing gigabyte huge pages (and other objects) to be allocated
from all of bootmem.

Signed-off-by: Steve Capper <steve.capper@linaro.org>
Acked-by: Catalin Marinas <catalin.marinas@arm.com>
arch/arm64/mm/mmu.c