Merge tag 'pinctrl-v3.19-1' of git://git.kernel.org/pub/scm/linux/kernel/git/linusw...
[cascardo/linux.git] / arch / powerpc / mm / hugetlbpage.c
1 /*
2  * PPC Huge TLB Page Support for Kernel.
3  *
4  * Copyright (C) 2003 David Gibson, IBM Corporation.
5  * Copyright (C) 2011 Becky Bruce, Freescale Semiconductor
6  *
7  * Based on the IA-32 version:
8  * Copyright (C) 2002, Rohit Seth <rohit.seth@intel.com>
9  */
10
11 #include <linux/mm.h>
12 #include <linux/io.h>
13 #include <linux/slab.h>
14 #include <linux/hugetlb.h>
15 #include <linux/export.h>
16 #include <linux/of_fdt.h>
17 #include <linux/memblock.h>
18 #include <linux/bootmem.h>
19 #include <linux/moduleparam.h>
20 #include <asm/pgtable.h>
21 #include <asm/pgalloc.h>
22 #include <asm/tlb.h>
23 #include <asm/setup.h>
24 #include <asm/hugetlb.h>
25
26 #ifdef CONFIG_HUGETLB_PAGE
27
28 #define PAGE_SHIFT_64K  16
29 #define PAGE_SHIFT_16M  24
30 #define PAGE_SHIFT_16G  34
31
32 unsigned int HPAGE_SHIFT;
33
34 /*
35  * Tracks gpages after the device tree is scanned and before the
36  * huge_boot_pages list is ready.  On non-Freescale implementations, this is
37  * just used to track 16G pages and so is a single array.  FSL-based
38  * implementations may have more than one gpage size, so we need multiple
39  * arrays
40  */
41 #ifdef CONFIG_PPC_FSL_BOOK3E
42 #define MAX_NUMBER_GPAGES       128
43 struct psize_gpages {
44         u64 gpage_list[MAX_NUMBER_GPAGES];
45         unsigned int nr_gpages;
46 };
47 static struct psize_gpages gpage_freearray[MMU_PAGE_COUNT];
48 #else
49 #define MAX_NUMBER_GPAGES       1024
50 static u64 gpage_freearray[MAX_NUMBER_GPAGES];
51 static unsigned nr_gpages;
52 #endif
53
54 #define hugepd_none(hpd)        ((hpd).pd == 0)
55
56 #ifdef CONFIG_PPC_BOOK3S_64
57 /*
58  * At this point we do the placement change only for BOOK3S 64. This would
59  * possibly work on other subarchs.
60  */
61
62 /*
63  * We have PGD_INDEX_SIZ = 12 and PTE_INDEX_SIZE = 8, so that we can have
64  * 16GB hugepage pte in PGD and 16MB hugepage pte at PMD;
65  */
66 int pmd_huge(pmd_t pmd)
67 {
68         /*
69          * leaf pte for huge page, bottom two bits != 00
70          */
71         return ((pmd_val(pmd) & 0x3) != 0x0);
72 }
73
74 int pud_huge(pud_t pud)
75 {
76         /*
77          * leaf pte for huge page, bottom two bits != 00
78          */
79         return ((pud_val(pud) & 0x3) != 0x0);
80 }
81
82 int pgd_huge(pgd_t pgd)
83 {
84         /*
85          * leaf pte for huge page, bottom two bits != 00
86          */
87         return ((pgd_val(pgd) & 0x3) != 0x0);
88 }
89 #else
90 int pmd_huge(pmd_t pmd)
91 {
92         return 0;
93 }
94
95 int pud_huge(pud_t pud)
96 {
97         return 0;
98 }
99
100 int pgd_huge(pgd_t pgd)
101 {
102         return 0;
103 }
104 #endif
105
106 pte_t *huge_pte_offset(struct mm_struct *mm, unsigned long addr)
107 {
108         /* Only called for hugetlbfs pages, hence can ignore THP */
109         return find_linux_pte_or_hugepte(mm->pgd, addr, NULL);
110 }
111
112 static int __hugepte_alloc(struct mm_struct *mm, hugepd_t *hpdp,
113                            unsigned long address, unsigned pdshift, unsigned pshift)
114 {
115         struct kmem_cache *cachep;
116         pte_t *new;
117
118 #ifdef CONFIG_PPC_FSL_BOOK3E
119         int i;
120         int num_hugepd = 1 << (pshift - pdshift);
121         cachep = hugepte_cache;
122 #else
123         cachep = PGT_CACHE(pdshift - pshift);
124 #endif
125
126         new = kmem_cache_zalloc(cachep, GFP_KERNEL|__GFP_REPEAT);
127
128         BUG_ON(pshift > HUGEPD_SHIFT_MASK);
129         BUG_ON((unsigned long)new & HUGEPD_SHIFT_MASK);
130
131         if (! new)
132                 return -ENOMEM;
133
134         spin_lock(&mm->page_table_lock);
135 #ifdef CONFIG_PPC_FSL_BOOK3E
136         /*
137          * We have multiple higher-level entries that point to the same
138          * actual pte location.  Fill in each as we go and backtrack on error.
139          * We need all of these so the DTLB pgtable walk code can find the
140          * right higher-level entry without knowing if it's a hugepage or not.
141          */
142         for (i = 0; i < num_hugepd; i++, hpdp++) {
143                 if (unlikely(!hugepd_none(*hpdp)))
144                         break;
145                 else
146                         /* We use the old format for PPC_FSL_BOOK3E */
147                         hpdp->pd = ((unsigned long)new & ~PD_HUGE) | pshift;
148         }
149         /* If we bailed from the for loop early, an error occurred, clean up */
150         if (i < num_hugepd) {
151                 for (i = i - 1 ; i >= 0; i--, hpdp--)
152                         hpdp->pd = 0;
153                 kmem_cache_free(cachep, new);
154         }
155 #else
156         if (!hugepd_none(*hpdp))
157                 kmem_cache_free(cachep, new);
158         else {
159 #ifdef CONFIG_PPC_BOOK3S_64
160                 hpdp->pd = (unsigned long)new |
161                             (shift_to_mmu_psize(pshift) << 2);
162 #else
163                 hpdp->pd = ((unsigned long)new & ~PD_HUGE) | pshift;
164 #endif
165         }
166 #endif
167         spin_unlock(&mm->page_table_lock);
168         return 0;
169 }
170
171 /*
172  * These macros define how to determine which level of the page table holds
173  * the hpdp.
174  */
175 #ifdef CONFIG_PPC_FSL_BOOK3E
176 #define HUGEPD_PGD_SHIFT PGDIR_SHIFT
177 #define HUGEPD_PUD_SHIFT PUD_SHIFT
178 #else
179 #define HUGEPD_PGD_SHIFT PUD_SHIFT
180 #define HUGEPD_PUD_SHIFT PMD_SHIFT
181 #endif
182
183 #ifdef CONFIG_PPC_BOOK3S_64
184 /*
185  * At this point we do the placement change only for BOOK3S 64. This would
186  * possibly work on other subarchs.
187  */
188 pte_t *huge_pte_alloc(struct mm_struct *mm, unsigned long addr, unsigned long sz)
189 {
190         pgd_t *pg;
191         pud_t *pu;
192         pmd_t *pm;
193         hugepd_t *hpdp = NULL;
194         unsigned pshift = __ffs(sz);
195         unsigned pdshift = PGDIR_SHIFT;
196
197         addr &= ~(sz-1);
198         pg = pgd_offset(mm, addr);
199
200         if (pshift == PGDIR_SHIFT)
201                 /* 16GB huge page */
202                 return (pte_t *) pg;
203         else if (pshift > PUD_SHIFT)
204                 /*
205                  * We need to use hugepd table
206                  */
207                 hpdp = (hugepd_t *)pg;
208         else {
209                 pdshift = PUD_SHIFT;
210                 pu = pud_alloc(mm, pg, addr);
211                 if (pshift == PUD_SHIFT)
212                         return (pte_t *)pu;
213                 else if (pshift > PMD_SHIFT)
214                         hpdp = (hugepd_t *)pu;
215                 else {
216                         pdshift = PMD_SHIFT;
217                         pm = pmd_alloc(mm, pu, addr);
218                         if (pshift == PMD_SHIFT)
219                                 /* 16MB hugepage */
220                                 return (pte_t *)pm;
221                         else
222                                 hpdp = (hugepd_t *)pm;
223                 }
224         }
225         if (!hpdp)
226                 return NULL;
227
228         BUG_ON(!hugepd_none(*hpdp) && !hugepd_ok(*hpdp));
229
230         if (hugepd_none(*hpdp) && __hugepte_alloc(mm, hpdp, addr, pdshift, pshift))
231                 return NULL;
232
233         return hugepte_offset(hpdp, addr, pdshift);
234 }
235
236 #else
237
238 pte_t *huge_pte_alloc(struct mm_struct *mm, unsigned long addr, unsigned long sz)
239 {
240         pgd_t *pg;
241         pud_t *pu;
242         pmd_t *pm;
243         hugepd_t *hpdp = NULL;
244         unsigned pshift = __ffs(sz);
245         unsigned pdshift = PGDIR_SHIFT;
246
247         addr &= ~(sz-1);
248
249         pg = pgd_offset(mm, addr);
250
251         if (pshift >= HUGEPD_PGD_SHIFT) {
252                 hpdp = (hugepd_t *)pg;
253         } else {
254                 pdshift = PUD_SHIFT;
255                 pu = pud_alloc(mm, pg, addr);
256                 if (pshift >= HUGEPD_PUD_SHIFT) {
257                         hpdp = (hugepd_t *)pu;
258                 } else {
259                         pdshift = PMD_SHIFT;
260                         pm = pmd_alloc(mm, pu, addr);
261                         hpdp = (hugepd_t *)pm;
262                 }
263         }
264
265         if (!hpdp)
266                 return NULL;
267
268         BUG_ON(!hugepd_none(*hpdp) && !hugepd_ok(*hpdp));
269
270         if (hugepd_none(*hpdp) && __hugepte_alloc(mm, hpdp, addr, pdshift, pshift))
271                 return NULL;
272
273         return hugepte_offset(hpdp, addr, pdshift);
274 }
275 #endif
276
277 #ifdef CONFIG_PPC_FSL_BOOK3E
278 /* Build list of addresses of gigantic pages.  This function is used in early
279  * boot before the buddy or bootmem allocator is setup.
280  */
281 void add_gpage(u64 addr, u64 page_size, unsigned long number_of_pages)
282 {
283         unsigned int idx = shift_to_mmu_psize(__ffs(page_size));
284         int i;
285
286         if (addr == 0)
287                 return;
288
289         gpage_freearray[idx].nr_gpages = number_of_pages;
290
291         for (i = 0; i < number_of_pages; i++) {
292                 gpage_freearray[idx].gpage_list[i] = addr;
293                 addr += page_size;
294         }
295 }
296
297 /*
298  * Moves the gigantic page addresses from the temporary list to the
299  * huge_boot_pages list.
300  */
301 int alloc_bootmem_huge_page(struct hstate *hstate)
302 {
303         struct huge_bootmem_page *m;
304         int idx = shift_to_mmu_psize(huge_page_shift(hstate));
305         int nr_gpages = gpage_freearray[idx].nr_gpages;
306
307         if (nr_gpages == 0)
308                 return 0;
309
310 #ifdef CONFIG_HIGHMEM
311         /*
312          * If gpages can be in highmem we can't use the trick of storing the
313          * data structure in the page; allocate space for this
314          */
315         m = alloc_bootmem(sizeof(struct huge_bootmem_page));
316         m->phys = gpage_freearray[idx].gpage_list[--nr_gpages];
317 #else
318         m = phys_to_virt(gpage_freearray[idx].gpage_list[--nr_gpages]);
319 #endif
320
321         list_add(&m->list, &huge_boot_pages);
322         gpage_freearray[idx].nr_gpages = nr_gpages;
323         gpage_freearray[idx].gpage_list[nr_gpages] = 0;
324         m->hstate = hstate;
325
326         return 1;
327 }
328 /*
329  * Scan the command line hugepagesz= options for gigantic pages; store those in
330  * a list that we use to allocate the memory once all options are parsed.
331  */
332
333 unsigned long gpage_npages[MMU_PAGE_COUNT];
334
335 static int __init do_gpage_early_setup(char *param, char *val,
336                                        const char *unused)
337 {
338         static phys_addr_t size;
339         unsigned long npages;
340
341         /*
342          * The hugepagesz and hugepages cmdline options are interleaved.  We
343          * use the size variable to keep track of whether or not this was done
344          * properly and skip over instances where it is incorrect.  Other
345          * command-line parsing code will issue warnings, so we don't need to.
346          *
347          */
348         if ((strcmp(param, "default_hugepagesz") == 0) ||
349             (strcmp(param, "hugepagesz") == 0)) {
350                 size = memparse(val, NULL);
351         } else if (strcmp(param, "hugepages") == 0) {
352                 if (size != 0) {
353                         if (sscanf(val, "%lu", &npages) <= 0)
354                                 npages = 0;
355                         gpage_npages[shift_to_mmu_psize(__ffs(size))] = npages;
356                         size = 0;
357                 }
358         }
359         return 0;
360 }
361
362
363 /*
364  * This function allocates physical space for pages that are larger than the
365  * buddy allocator can handle.  We want to allocate these in highmem because
366  * the amount of lowmem is limited.  This means that this function MUST be
367  * called before lowmem_end_addr is set up in MMU_init() in order for the lmb
368  * allocate to grab highmem.
369  */
370 void __init reserve_hugetlb_gpages(void)
371 {
372         static __initdata char cmdline[COMMAND_LINE_SIZE];
373         phys_addr_t size, base;
374         int i;
375
376         strlcpy(cmdline, boot_command_line, COMMAND_LINE_SIZE);
377         parse_args("hugetlb gpages", cmdline, NULL, 0, 0, 0,
378                         &do_gpage_early_setup);
379
380         /*
381          * Walk gpage list in reverse, allocating larger page sizes first.
382          * Skip over unsupported sizes, or sizes that have 0 gpages allocated.
383          * When we reach the point in the list where pages are no longer
384          * considered gpages, we're done.
385          */
386         for (i = MMU_PAGE_COUNT-1; i >= 0; i--) {
387                 if (mmu_psize_defs[i].shift == 0 || gpage_npages[i] == 0)
388                         continue;
389                 else if (mmu_psize_to_shift(i) < (MAX_ORDER + PAGE_SHIFT))
390                         break;
391
392                 size = (phys_addr_t)(1ULL << mmu_psize_to_shift(i));
393                 base = memblock_alloc_base(size * gpage_npages[i], size,
394                                            MEMBLOCK_ALLOC_ANYWHERE);
395                 add_gpage(base, size, gpage_npages[i]);
396         }
397 }
398
399 #else /* !PPC_FSL_BOOK3E */
400
401 /* Build list of addresses of gigantic pages.  This function is used in early
402  * boot before the buddy or bootmem allocator is setup.
403  */
404 void add_gpage(u64 addr, u64 page_size, unsigned long number_of_pages)
405 {
406         if (!addr)
407                 return;
408         while (number_of_pages > 0) {
409                 gpage_freearray[nr_gpages] = addr;
410                 nr_gpages++;
411                 number_of_pages--;
412                 addr += page_size;
413         }
414 }
415
416 /* Moves the gigantic page addresses from the temporary list to the
417  * huge_boot_pages list.
418  */
419 int alloc_bootmem_huge_page(struct hstate *hstate)
420 {
421         struct huge_bootmem_page *m;
422         if (nr_gpages == 0)
423                 return 0;
424         m = phys_to_virt(gpage_freearray[--nr_gpages]);
425         gpage_freearray[nr_gpages] = 0;
426         list_add(&m->list, &huge_boot_pages);
427         m->hstate = hstate;
428         return 1;
429 }
430 #endif
431
432 int huge_pmd_unshare(struct mm_struct *mm, unsigned long *addr, pte_t *ptep)
433 {
434         return 0;
435 }
436
437 #ifdef CONFIG_PPC_FSL_BOOK3E
438 #define HUGEPD_FREELIST_SIZE \
439         ((PAGE_SIZE - sizeof(struct hugepd_freelist)) / sizeof(pte_t))
440
441 struct hugepd_freelist {
442         struct rcu_head rcu;
443         unsigned int index;
444         void *ptes[0];
445 };
446
447 static DEFINE_PER_CPU(struct hugepd_freelist *, hugepd_freelist_cur);
448
449 static void hugepd_free_rcu_callback(struct rcu_head *head)
450 {
451         struct hugepd_freelist *batch =
452                 container_of(head, struct hugepd_freelist, rcu);
453         unsigned int i;
454
455         for (i = 0; i < batch->index; i++)
456                 kmem_cache_free(hugepte_cache, batch->ptes[i]);
457
458         free_page((unsigned long)batch);
459 }
460
461 static void hugepd_free(struct mmu_gather *tlb, void *hugepte)
462 {
463         struct hugepd_freelist **batchp;
464
465         batchp = &get_cpu_var(hugepd_freelist_cur);
466
467         if (atomic_read(&tlb->mm->mm_users) < 2 ||
468             cpumask_equal(mm_cpumask(tlb->mm),
469                           cpumask_of(smp_processor_id()))) {
470                 kmem_cache_free(hugepte_cache, hugepte);
471         put_cpu_var(hugepd_freelist_cur);
472                 return;
473         }
474
475         if (*batchp == NULL) {
476                 *batchp = (struct hugepd_freelist *)__get_free_page(GFP_ATOMIC);
477                 (*batchp)->index = 0;
478         }
479
480         (*batchp)->ptes[(*batchp)->index++] = hugepte;
481         if ((*batchp)->index == HUGEPD_FREELIST_SIZE) {
482                 call_rcu_sched(&(*batchp)->rcu, hugepd_free_rcu_callback);
483                 *batchp = NULL;
484         }
485         put_cpu_var(hugepd_freelist_cur);
486 }
487 #endif
488
489 static void free_hugepd_range(struct mmu_gather *tlb, hugepd_t *hpdp, int pdshift,
490                               unsigned long start, unsigned long end,
491                               unsigned long floor, unsigned long ceiling)
492 {
493         pte_t *hugepte = hugepd_page(*hpdp);
494         int i;
495
496         unsigned long pdmask = ~((1UL << pdshift) - 1);
497         unsigned int num_hugepd = 1;
498
499 #ifdef CONFIG_PPC_FSL_BOOK3E
500         /* Note: On fsl the hpdp may be the first of several */
501         num_hugepd = (1 << (hugepd_shift(*hpdp) - pdshift));
502 #else
503         unsigned int shift = hugepd_shift(*hpdp);
504 #endif
505
506         start &= pdmask;
507         if (start < floor)
508                 return;
509         if (ceiling) {
510                 ceiling &= pdmask;
511                 if (! ceiling)
512                         return;
513         }
514         if (end - 1 > ceiling - 1)
515                 return;
516
517         for (i = 0; i < num_hugepd; i++, hpdp++)
518                 hpdp->pd = 0;
519
520 #ifdef CONFIG_PPC_FSL_BOOK3E
521         hugepd_free(tlb, hugepte);
522 #else
523         pgtable_free_tlb(tlb, hugepte, pdshift - shift);
524 #endif
525 }
526
527 static void hugetlb_free_pmd_range(struct mmu_gather *tlb, pud_t *pud,
528                                    unsigned long addr, unsigned long end,
529                                    unsigned long floor, unsigned long ceiling)
530 {
531         pmd_t *pmd;
532         unsigned long next;
533         unsigned long start;
534
535         start = addr;
536         do {
537                 pmd = pmd_offset(pud, addr);
538                 next = pmd_addr_end(addr, end);
539                 if (!is_hugepd(pmd)) {
540                         /*
541                          * if it is not hugepd pointer, we should already find
542                          * it cleared.
543                          */
544                         WARN_ON(!pmd_none_or_clear_bad(pmd));
545                         continue;
546                 }
547 #ifdef CONFIG_PPC_FSL_BOOK3E
548                 /*
549                  * Increment next by the size of the huge mapping since
550                  * there may be more than one entry at this level for a
551                  * single hugepage, but all of them point to
552                  * the same kmem cache that holds the hugepte.
553                  */
554                 next = addr + (1 << hugepd_shift(*(hugepd_t *)pmd));
555 #endif
556                 free_hugepd_range(tlb, (hugepd_t *)pmd, PMD_SHIFT,
557                                   addr, next, floor, ceiling);
558         } while (addr = next, addr != end);
559
560         start &= PUD_MASK;
561         if (start < floor)
562                 return;
563         if (ceiling) {
564                 ceiling &= PUD_MASK;
565                 if (!ceiling)
566                         return;
567         }
568         if (end - 1 > ceiling - 1)
569                 return;
570
571         pmd = pmd_offset(pud, start);
572         pud_clear(pud);
573         pmd_free_tlb(tlb, pmd, start);
574 }
575
576 static void hugetlb_free_pud_range(struct mmu_gather *tlb, pgd_t *pgd,
577                                    unsigned long addr, unsigned long end,
578                                    unsigned long floor, unsigned long ceiling)
579 {
580         pud_t *pud;
581         unsigned long next;
582         unsigned long start;
583
584         start = addr;
585         do {
586                 pud = pud_offset(pgd, addr);
587                 next = pud_addr_end(addr, end);
588                 if (!is_hugepd(pud)) {
589                         if (pud_none_or_clear_bad(pud))
590                                 continue;
591                         hugetlb_free_pmd_range(tlb, pud, addr, next, floor,
592                                                ceiling);
593                 } else {
594 #ifdef CONFIG_PPC_FSL_BOOK3E
595                         /*
596                          * Increment next by the size of the huge mapping since
597                          * there may be more than one entry at this level for a
598                          * single hugepage, but all of them point to
599                          * the same kmem cache that holds the hugepte.
600                          */
601                         next = addr + (1 << hugepd_shift(*(hugepd_t *)pud));
602 #endif
603                         free_hugepd_range(tlb, (hugepd_t *)pud, PUD_SHIFT,
604                                           addr, next, floor, ceiling);
605                 }
606         } while (addr = next, addr != end);
607
608         start &= PGDIR_MASK;
609         if (start < floor)
610                 return;
611         if (ceiling) {
612                 ceiling &= PGDIR_MASK;
613                 if (!ceiling)
614                         return;
615         }
616         if (end - 1 > ceiling - 1)
617                 return;
618
619         pud = pud_offset(pgd, start);
620         pgd_clear(pgd);
621         pud_free_tlb(tlb, pud, start);
622 }
623
624 /*
625  * This function frees user-level page tables of a process.
626  */
627 void hugetlb_free_pgd_range(struct mmu_gather *tlb,
628                             unsigned long addr, unsigned long end,
629                             unsigned long floor, unsigned long ceiling)
630 {
631         pgd_t *pgd;
632         unsigned long next;
633
634         /*
635          * Because there are a number of different possible pagetable
636          * layouts for hugepage ranges, we limit knowledge of how
637          * things should be laid out to the allocation path
638          * (huge_pte_alloc(), above).  Everything else works out the
639          * structure as it goes from information in the hugepd
640          * pointers.  That means that we can't here use the
641          * optimization used in the normal page free_pgd_range(), of
642          * checking whether we're actually covering a large enough
643          * range to have to do anything at the top level of the walk
644          * instead of at the bottom.
645          *
646          * To make sense of this, you should probably go read the big
647          * block comment at the top of the normal free_pgd_range(),
648          * too.
649          */
650
651         do {
652                 next = pgd_addr_end(addr, end);
653                 pgd = pgd_offset(tlb->mm, addr);
654                 if (!is_hugepd(pgd)) {
655                         if (pgd_none_or_clear_bad(pgd))
656                                 continue;
657                         hugetlb_free_pud_range(tlb, pgd, addr, next, floor, ceiling);
658                 } else {
659 #ifdef CONFIG_PPC_FSL_BOOK3E
660                         /*
661                          * Increment next by the size of the huge mapping since
662                          * there may be more than one entry at the pgd level
663                          * for a single hugepage, but all of them point to the
664                          * same kmem cache that holds the hugepte.
665                          */
666                         next = addr + (1 << hugepd_shift(*(hugepd_t *)pgd));
667 #endif
668                         free_hugepd_range(tlb, (hugepd_t *)pgd, PGDIR_SHIFT,
669                                           addr, next, floor, ceiling);
670                 }
671         } while (addr = next, addr != end);
672 }
673
674 struct page *
675 follow_huge_addr(struct mm_struct *mm, unsigned long address, int write)
676 {
677         pte_t *ptep;
678         struct page *page;
679         unsigned shift;
680         unsigned long mask;
681         /*
682          * Transparent hugepages are handled by generic code. We can skip them
683          * here.
684          */
685         ptep = find_linux_pte_or_hugepte(mm->pgd, address, &shift);
686
687         /* Verify it is a huge page else bail. */
688         if (!ptep || !shift || pmd_trans_huge(*(pmd_t *)ptep))
689                 return ERR_PTR(-EINVAL);
690
691         mask = (1UL << shift) - 1;
692         page = pte_page(*ptep);
693         if (page)
694                 page += (address & mask) / PAGE_SIZE;
695
696         return page;
697 }
698
699 struct page *
700 follow_huge_pmd(struct mm_struct *mm, unsigned long address,
701                 pmd_t *pmd, int write)
702 {
703         BUG();
704         return NULL;
705 }
706
707 static unsigned long hugepte_addr_end(unsigned long addr, unsigned long end,
708                                       unsigned long sz)
709 {
710         unsigned long __boundary = (addr + sz) & ~(sz-1);
711         return (__boundary - 1 < end - 1) ? __boundary : end;
712 }
713
714 int gup_hugepd(hugepd_t *hugepd, unsigned pdshift,
715                unsigned long addr, unsigned long end,
716                int write, struct page **pages, int *nr)
717 {
718         pte_t *ptep;
719         unsigned long sz = 1UL << hugepd_shift(*hugepd);
720         unsigned long next;
721
722         ptep = hugepte_offset(hugepd, addr, pdshift);
723         do {
724                 next = hugepte_addr_end(addr, end, sz);
725                 if (!gup_hugepte(ptep, sz, addr, end, write, pages, nr))
726                         return 0;
727         } while (ptep++, addr = next, addr != end);
728
729         return 1;
730 }
731
732 #ifdef CONFIG_PPC_MM_SLICES
733 unsigned long hugetlb_get_unmapped_area(struct file *file, unsigned long addr,
734                                         unsigned long len, unsigned long pgoff,
735                                         unsigned long flags)
736 {
737         struct hstate *hstate = hstate_file(file);
738         int mmu_psize = shift_to_mmu_psize(huge_page_shift(hstate));
739
740         return slice_get_unmapped_area(addr, len, flags, mmu_psize, 1);
741 }
742 #endif
743
744 unsigned long vma_mmu_pagesize(struct vm_area_struct *vma)
745 {
746 #ifdef CONFIG_PPC_MM_SLICES
747         unsigned int psize = get_slice_psize(vma->vm_mm, vma->vm_start);
748
749         return 1UL << mmu_psize_to_shift(psize);
750 #else
751         if (!is_vm_hugetlb_page(vma))
752                 return PAGE_SIZE;
753
754         return huge_page_size(hstate_vma(vma));
755 #endif
756 }
757
758 static inline bool is_power_of_4(unsigned long x)
759 {
760         if (is_power_of_2(x))
761                 return (__ilog2(x) % 2) ? false : true;
762         return false;
763 }
764
765 static int __init add_huge_page_size(unsigned long long size)
766 {
767         int shift = __ffs(size);
768         int mmu_psize;
769
770         /* Check that it is a page size supported by the hardware and
771          * that it fits within pagetable and slice limits. */
772 #ifdef CONFIG_PPC_FSL_BOOK3E
773         if ((size < PAGE_SIZE) || !is_power_of_4(size))
774                 return -EINVAL;
775 #else
776         if (!is_power_of_2(size)
777             || (shift > SLICE_HIGH_SHIFT) || (shift <= PAGE_SHIFT))
778                 return -EINVAL;
779 #endif
780
781         if ((mmu_psize = shift_to_mmu_psize(shift)) < 0)
782                 return -EINVAL;
783
784 #ifdef CONFIG_SPU_FS_64K_LS
785         /* Disable support for 64K huge pages when 64K SPU local store
786          * support is enabled as the current implementation conflicts.
787          */
788         if (shift == PAGE_SHIFT_64K)
789                 return -EINVAL;
790 #endif /* CONFIG_SPU_FS_64K_LS */
791
792         BUG_ON(mmu_psize_defs[mmu_psize].shift != shift);
793
794         /* Return if huge page size has already been setup */
795         if (size_to_hstate(size))
796                 return 0;
797
798         hugetlb_add_hstate(shift - PAGE_SHIFT);
799
800         return 0;
801 }
802
803 static int __init hugepage_setup_sz(char *str)
804 {
805         unsigned long long size;
806
807         size = memparse(str, &str);
808
809         if (add_huge_page_size(size) != 0)
810                 printk(KERN_WARNING "Invalid huge page size specified(%llu)\n", size);
811
812         return 1;
813 }
814 __setup("hugepagesz=", hugepage_setup_sz);
815
816 #ifdef CONFIG_PPC_FSL_BOOK3E
817 struct kmem_cache *hugepte_cache;
818 static int __init hugetlbpage_init(void)
819 {
820         int psize;
821
822         for (psize = 0; psize < MMU_PAGE_COUNT; ++psize) {
823                 unsigned shift;
824
825                 if (!mmu_psize_defs[psize].shift)
826                         continue;
827
828                 shift = mmu_psize_to_shift(psize);
829
830                 /* Don't treat normal page sizes as huge... */
831                 if (shift != PAGE_SHIFT)
832                         if (add_huge_page_size(1ULL << shift) < 0)
833                                 continue;
834         }
835
836         /*
837          * Create a kmem cache for hugeptes.  The bottom bits in the pte have
838          * size information encoded in them, so align them to allow this
839          */
840         hugepte_cache =  kmem_cache_create("hugepte-cache", sizeof(pte_t),
841                                            HUGEPD_SHIFT_MASK + 1, 0, NULL);
842         if (hugepte_cache == NULL)
843                 panic("%s: Unable to create kmem cache for hugeptes\n",
844                       __func__);
845
846         /* Default hpage size = 4M */
847         if (mmu_psize_defs[MMU_PAGE_4M].shift)
848                 HPAGE_SHIFT = mmu_psize_defs[MMU_PAGE_4M].shift;
849         else
850                 panic("%s: Unable to set default huge page size\n", __func__);
851
852
853         return 0;
854 }
855 #else
856 static int __init hugetlbpage_init(void)
857 {
858         int psize;
859
860         if (!mmu_has_feature(MMU_FTR_16M_PAGE))
861                 return -ENODEV;
862
863         for (psize = 0; psize < MMU_PAGE_COUNT; ++psize) {
864                 unsigned shift;
865                 unsigned pdshift;
866
867                 if (!mmu_psize_defs[psize].shift)
868                         continue;
869
870                 shift = mmu_psize_to_shift(psize);
871
872                 if (add_huge_page_size(1ULL << shift) < 0)
873                         continue;
874
875                 if (shift < PMD_SHIFT)
876                         pdshift = PMD_SHIFT;
877                 else if (shift < PUD_SHIFT)
878                         pdshift = PUD_SHIFT;
879                 else
880                         pdshift = PGDIR_SHIFT;
881                 /*
882                  * if we have pdshift and shift value same, we don't
883                  * use pgt cache for hugepd.
884                  */
885                 if (pdshift != shift) {
886                         pgtable_cache_add(pdshift - shift, NULL);
887                         if (!PGT_CACHE(pdshift - shift))
888                                 panic("hugetlbpage_init(): could not create "
889                                       "pgtable cache for %d bit pagesize\n", shift);
890                 }
891         }
892
893         /* Set default large page size. Currently, we pick 16M or 1M
894          * depending on what is available
895          */
896         if (mmu_psize_defs[MMU_PAGE_16M].shift)
897                 HPAGE_SHIFT = mmu_psize_defs[MMU_PAGE_16M].shift;
898         else if (mmu_psize_defs[MMU_PAGE_1M].shift)
899                 HPAGE_SHIFT = mmu_psize_defs[MMU_PAGE_1M].shift;
900
901         return 0;
902 }
903 #endif
904 module_init(hugetlbpage_init);
905
906 void flush_dcache_icache_hugepage(struct page *page)
907 {
908         int i;
909         void *start;
910
911         BUG_ON(!PageCompound(page));
912
913         for (i = 0; i < (1UL << compound_order(page)); i++) {
914                 if (!PageHighMem(page)) {
915                         __flush_dcache_icache(page_address(page+i));
916                 } else {
917                         start = kmap_atomic(page+i);
918                         __flush_dcache_icache(start);
919                         kunmap_atomic(start);
920                 }
921         }
922 }
923
924 #endif /* CONFIG_HUGETLB_PAGE */
925
926 /*
927  * We have 4 cases for pgds and pmds:
928  * (1) invalid (all zeroes)
929  * (2) pointer to next table, as normal; bottom 6 bits == 0
930  * (3) leaf pte for huge page, bottom two bits != 00
931  * (4) hugepd pointer, bottom two bits == 00, next 4 bits indicate size of table
932  *
933  * So long as we atomically load page table pointers we are safe against teardown,
934  * we can follow the address down to the the page and take a ref on it.
935  */
936
937 pte_t *find_linux_pte_or_hugepte(pgd_t *pgdir, unsigned long ea, unsigned *shift)
938 {
939         pgd_t pgd, *pgdp;
940         pud_t pud, *pudp;
941         pmd_t pmd, *pmdp;
942         pte_t *ret_pte;
943         hugepd_t *hpdp = NULL;
944         unsigned pdshift = PGDIR_SHIFT;
945
946         if (shift)
947                 *shift = 0;
948
949         pgdp = pgdir + pgd_index(ea);
950         pgd  = ACCESS_ONCE(*pgdp);
951         /*
952          * Always operate on the local stack value. This make sure the
953          * value don't get updated by a parallel THP split/collapse,
954          * page fault or a page unmap. The return pte_t * is still not
955          * stable. So should be checked there for above conditions.
956          */
957         if (pgd_none(pgd))
958                 return NULL;
959         else if (pgd_huge(pgd)) {
960                 ret_pte = (pte_t *) pgdp;
961                 goto out;
962         } else if (is_hugepd(&pgd))
963                 hpdp = (hugepd_t *)&pgd;
964         else {
965                 /*
966                  * Even if we end up with an unmap, the pgtable will not
967                  * be freed, because we do an rcu free and here we are
968                  * irq disabled
969                  */
970                 pdshift = PUD_SHIFT;
971                 pudp = pud_offset(&pgd, ea);
972                 pud  = ACCESS_ONCE(*pudp);
973
974                 if (pud_none(pud))
975                         return NULL;
976                 else if (pud_huge(pud)) {
977                         ret_pte = (pte_t *) pudp;
978                         goto out;
979                 } else if (is_hugepd(&pud))
980                         hpdp = (hugepd_t *)&pud;
981                 else {
982                         pdshift = PMD_SHIFT;
983                         pmdp = pmd_offset(&pud, ea);
984                         pmd  = ACCESS_ONCE(*pmdp);
985                         /*
986                          * A hugepage collapse is captured by pmd_none, because
987                          * it mark the pmd none and do a hpte invalidate.
988                          *
989                          * A hugepage split is captured by pmd_trans_splitting
990                          * because we mark the pmd trans splitting and do a
991                          * hpte invalidate
992                          *
993                          */
994                         if (pmd_none(pmd) || pmd_trans_splitting(pmd))
995                                 return NULL;
996
997                         if (pmd_huge(pmd) || pmd_large(pmd)) {
998                                 ret_pte = (pte_t *) pmdp;
999                                 goto out;
1000                         } else if (is_hugepd(&pmd))
1001                                 hpdp = (hugepd_t *)&pmd;
1002                         else
1003                                 return pte_offset_kernel(&pmd, ea);
1004                 }
1005         }
1006         if (!hpdp)
1007                 return NULL;
1008
1009         ret_pte = hugepte_offset(hpdp, ea, pdshift);
1010         pdshift = hugepd_shift(*hpdp);
1011 out:
1012         if (shift)
1013                 *shift = pdshift;
1014         return ret_pte;
1015 }
1016 EXPORT_SYMBOL_GPL(find_linux_pte_or_hugepte);
1017
1018 int gup_hugepte(pte_t *ptep, unsigned long sz, unsigned long addr,
1019                 unsigned long end, int write, struct page **pages, int *nr)
1020 {
1021         unsigned long mask;
1022         unsigned long pte_end;
1023         struct page *head, *page, *tail;
1024         pte_t pte;
1025         int refs;
1026
1027         pte_end = (addr + sz) & ~(sz-1);
1028         if (pte_end < end)
1029                 end = pte_end;
1030
1031         pte = ACCESS_ONCE(*ptep);
1032         mask = _PAGE_PRESENT | _PAGE_USER;
1033         if (write)
1034                 mask |= _PAGE_RW;
1035
1036         if ((pte_val(pte) & mask) != mask)
1037                 return 0;
1038
1039 #ifdef CONFIG_TRANSPARENT_HUGEPAGE
1040         /*
1041          * check for splitting here
1042          */
1043         if (pmd_trans_splitting(pte_pmd(pte)))
1044                 return 0;
1045 #endif
1046
1047         /* hugepages are never "special" */
1048         VM_BUG_ON(!pfn_valid(pte_pfn(pte)));
1049
1050         refs = 0;
1051         head = pte_page(pte);
1052
1053         page = head + ((addr & (sz-1)) >> PAGE_SHIFT);
1054         tail = page;
1055         do {
1056                 VM_BUG_ON(compound_head(page) != head);
1057                 pages[*nr] = page;
1058                 (*nr)++;
1059                 page++;
1060                 refs++;
1061         } while (addr += PAGE_SIZE, addr != end);
1062
1063         if (!page_cache_add_speculative(head, refs)) {
1064                 *nr -= refs;
1065                 return 0;
1066         }
1067
1068         if (unlikely(pte_val(pte) != pte_val(*ptep))) {
1069                 /* Could be optimized better */
1070                 *nr -= refs;
1071                 while (refs--)
1072                         put_page(head);
1073                 return 0;
1074         }
1075
1076         /*
1077          * Any tail page need their mapcount reference taken before we
1078          * return.
1079          */
1080         while (refs--) {
1081                 if (PageTail(tail))
1082                         get_huge_page_tail(tail);
1083                 tail++;
1084         }
1085
1086         return 1;
1087 }