x86: fix deadlock, make pgd_lock irq-safe
[pandora-kernel.git] / include / asm-x86 / pgalloc_64.h
1 #ifndef _X86_64_PGALLOC_H
2 #define _X86_64_PGALLOC_H
3
4 #include <asm/pda.h>
5 #include <linux/threads.h>
6 #include <linux/mm.h>
7
8 #define pmd_populate_kernel(mm, pmd, pte) \
9                 set_pmd(pmd, __pmd(_PAGE_TABLE | __pa(pte)))
10 #define pud_populate(mm, pud, pmd) \
11                 set_pud(pud, __pud(_PAGE_TABLE | __pa(pmd)))
12 #define pgd_populate(mm, pgd, pud) \
13                 set_pgd(pgd, __pgd(_PAGE_TABLE | __pa(pud)))
14
15 static inline void pmd_populate(struct mm_struct *mm, pmd_t *pmd, struct page *pte)
16 {
17         set_pmd(pmd, __pmd(_PAGE_TABLE | (page_to_pfn(pte) << PAGE_SHIFT)));
18 }
19
20 static inline void pmd_free(struct mm_struct *mm, pmd_t *pmd)
21 {
22         BUG_ON((unsigned long)pmd & (PAGE_SIZE-1));
23         free_page((unsigned long)pmd);
24 }
25
26 static inline pmd_t *pmd_alloc_one (struct mm_struct *mm, unsigned long addr)
27 {
28         return (pmd_t *)get_zeroed_page(GFP_KERNEL|__GFP_REPEAT);
29 }
30
31 static inline pud_t *pud_alloc_one(struct mm_struct *mm, unsigned long addr)
32 {
33         return (pud_t *)get_zeroed_page(GFP_KERNEL|__GFP_REPEAT);
34 }
35
36 static inline void pud_free(struct mm_struct *mm, pud_t *pud)
37 {
38         BUG_ON((unsigned long)pud & (PAGE_SIZE-1));
39         free_page((unsigned long)pud);
40 }
41
42 static inline void pgd_list_add(pgd_t *pgd)
43 {
44         struct page *page = virt_to_page(pgd);
45         unsigned long flags;
46
47         spin_lock_irqsave(&pgd_lock, flags);
48         list_add(&page->lru, &pgd_list);
49         spin_unlock_irqrestore(&pgd_lock, flags);
50 }
51
52 static inline void pgd_list_del(pgd_t *pgd)
53 {
54         struct page *page = virt_to_page(pgd);
55         unsigned long flags;
56
57         spin_lock_irqsave(&pgd_lock, flags);
58         list_del(&page->lru);
59         spin_unlock_irqrestore(&pgd_lock, flags);
60 }
61
62 static inline pgd_t *pgd_alloc(struct mm_struct *mm)
63 {
64         unsigned boundary;
65         pgd_t *pgd = (pgd_t *)__get_free_page(GFP_KERNEL|__GFP_REPEAT);
66         if (!pgd)
67                 return NULL;
68         pgd_list_add(pgd);
69         /*
70          * Copy kernel pointers in from init.
71          * Could keep a freelist or slab cache of those because the kernel
72          * part never changes.
73          */
74         boundary = pgd_index(__PAGE_OFFSET);
75         memset(pgd, 0, boundary * sizeof(pgd_t));
76         memcpy(pgd + boundary,
77                init_level4_pgt + boundary,
78                (PTRS_PER_PGD - boundary) * sizeof(pgd_t));
79         return pgd;
80 }
81
82 static inline void pgd_free(struct mm_struct *mm, pgd_t *pgd)
83 {
84         BUG_ON((unsigned long)pgd & (PAGE_SIZE-1));
85         pgd_list_del(pgd);
86         free_page((unsigned long)pgd);
87 }
88
89 static inline pte_t *pte_alloc_one_kernel(struct mm_struct *mm, unsigned long address)
90 {
91         return (pte_t *)get_zeroed_page(GFP_KERNEL|__GFP_REPEAT);
92 }
93
94 static inline struct page *pte_alloc_one(struct mm_struct *mm, unsigned long address)
95 {
96         void *p = (void *)get_zeroed_page(GFP_KERNEL|__GFP_REPEAT);
97         if (!p)
98                 return NULL;
99         return virt_to_page(p);
100 }
101
102 /* Should really implement gc for free page table pages. This could be
103    done with a reference count in struct page. */
104
105 static inline void pte_free_kernel(struct mm_struct *mm, pte_t *pte)
106 {
107         BUG_ON((unsigned long)pte & (PAGE_SIZE-1));
108         free_page((unsigned long)pte); 
109 }
110
111 static inline void pte_free(struct mm_struct *mm, struct page *pte)
112 {
113         __free_page(pte);
114
115
116 #define __pte_free_tlb(tlb,pte) tlb_remove_page((tlb),(pte))
117
118 #define __pmd_free_tlb(tlb,x)   tlb_remove_page((tlb),virt_to_page(x))
119 #define __pud_free_tlb(tlb,x)   tlb_remove_page((tlb),virt_to_page(x))
120
121 #endif /* _X86_64_PGALLOC_H */