]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
mm, treewide: rename MAX_ORDER to MAX_PAGE_ORDER
authorKirill A. Shutemov <kirill.shutemov@linux.intel.com>
Thu, 28 Dec 2023 14:47:04 +0000 (17:47 +0300)
committerAndrew Morton <akpm@linux-foundation.org>
Mon, 8 Jan 2024 23:27:15 +0000 (15:27 -0800)
commit 23baf831a32c ("mm, treewide: redefine MAX_ORDER sanely") has
changed the definition of MAX_ORDER to be inclusive.  This has caused
issues with code that was not yet upstream and depended on the previous
definition.

To draw attention to the altered meaning of the define, rename MAX_ORDER
to MAX_PAGE_ORDER.

Link: https://lkml.kernel.org/r/20231228144704.14033-2-kirill.shutemov@linux.intel.com
Signed-off-by: Kirill A. Shutemov <kirill.shutemov@linux.intel.com>
Cc: Linus Torvalds <torvalds@linux-foundation.org>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
76 files changed:
Documentation/admin-guide/kdump/vmcoreinfo.rst
Documentation/admin-guide/kernel-parameters.txt
Documentation/networking/packet_mmap.rst
arch/arm/Kconfig
arch/arm64/Kconfig
arch/arm64/include/asm/sparsemem.h
arch/arm64/kvm/hyp/nvhe/page_alloc.c
arch/arm64/mm/hugetlbpage.c
arch/m68k/Kconfig.cpu
arch/nios2/Kconfig
arch/powerpc/Kconfig
arch/powerpc/mm/book3s64/iommu_api.c
arch/powerpc/mm/hugetlbpage.c
arch/powerpc/platforms/powernv/pci-ioda.c
arch/sh/mm/Kconfig
arch/sparc/Kconfig
arch/sparc/kernel/pci_sun4v.c
arch/sparc/mm/tsb.c
arch/um/kernel/um_arch.c
arch/xtensa/Kconfig
drivers/accel/qaic/qaic_data.c
drivers/base/regmap/regmap-debugfs.c
drivers/block/floppy.c
drivers/crypto/ccp/sev-dev.c
drivers/crypto/hisilicon/sgl.c
drivers/gpu/drm/i915/gem/i915_gem_internal.c
drivers/gpu/drm/i915/gem/selftests/huge_pages.c
drivers/gpu/drm/ttm/tests/ttm_pool_test.c
drivers/gpu/drm/ttm/ttm_pool.c
drivers/iommu/arm/arm-smmu-v3/arm-smmu-v3.h
drivers/iommu/dma-iommu.c
drivers/irqchip/irq-gic-v3-its.c
drivers/md/dm-bufio.c
drivers/md/dm-crypt.c
drivers/md/dm-flakey.c
drivers/misc/genwqe/card_dev.c
drivers/misc/genwqe/card_utils.c
drivers/net/ethernet/hisilicon/hns3/hns3_enet.c
drivers/net/ethernet/ibm/ibmvnic.h
drivers/video/fbdev/hyperv_fb.c
drivers/video/fbdev/vermilion/vermilion.c
drivers/virtio/virtio_balloon.c
drivers/virtio/virtio_mem.c
fs/ramfs/file-nommu.c
include/linux/hugetlb.h
include/linux/mmzone.h
include/linux/pageblock-flags.h
include/linux/slab.h
kernel/dma/pool.c
kernel/dma/swiotlb.c
kernel/events/ring_buffer.c
mm/Kconfig
mm/compaction.c
mm/debug_page_alloc.c
mm/debug_vm_pgtable.c
mm/huge_memory.c
mm/hugetlb.c
mm/internal.h
mm/kmsan/init.c
mm/memblock.c
mm/memory_hotplug.c
mm/mm_init.c
mm/page_alloc.c
mm/page_isolation.c
mm/page_owner.c
mm/page_reporting.c
mm/shuffle.h
mm/slab.c
mm/slub.c
mm/vmscan.c
mm/vmstat.c
net/smc/smc_ib.c
security/integrity/ima/ima_crypto.c
tools/perf/Documentation/perf-intel-pt.txt
tools/testing/memblock/linux/mmzone.h
tools/testing/selftests/mm/thuge-gen.c

index 3f8769e46b07ac830223345254745ae31659d195..bced9e4b6e089912be3c2a5c1fcf80ea9f98d60f 100644 (file)
@@ -193,7 +193,7 @@ from this.
 --------------------------------
 
 Free areas descriptor. User-space tools use this value to iterate the
-free_area ranges. MAX_ORDER is used by the zone buddy allocator.
+free_area ranges. NR_PAGE_ORDERS is used by the zone buddy allocator.
 
 prb
 ---
index 65731b060e3fef98cb97f03695ca8757ee197700..8a01b8112f0bfb80ba4fe5faf10a240660033b81 100644 (file)
                        buddy allocator. Bigger value increase the probability
                        of catching random memory corruption, but reduce the
                        amount of memory for normal system use. The maximum
-                       possible value is MAX_ORDER/2.  Setting this parameter
-                       to 1 or 2 should be enough to identify most random
-                       memory corruption problems caused by bugs in kernel or
-                       driver code when a CPU writes to (or reads from) a
-                       random memory location. Note that there exists a class
-                       of memory corruptions problems caused by buggy H/W or
-                       F/W or by drivers badly programming DMA (basically when
-                       memory is written at bus level and the CPU MMU is
-                       bypassed) which are not detectable by
-                       CONFIG_DEBUG_PAGEALLOC, hence this option will not help
-                       tracking down these problems.
+                       possible value is MAX_PAGE_ORDER/2.  Setting this
+                       parameter to 1 or 2 should be enough to identify most
+                       random memory corruption problems caused by bugs in
+                       kernel or driver code when a CPU writes to (or reads
+                       from) a random memory location. Note that there exists
+                       a class of memory corruptions problems caused by buggy
+                       H/W or F/W or by drivers badly programming DMA
+                       (basically when memory is written at bus level and the
+                       CPU MMU is bypassed) which are not detectable by
+                       CONFIG_DEBUG_PAGEALLOC, hence this option will not
+                       help tracking down these problems.
 
        debug_pagealloc=
                        [KNL] When CONFIG_DEBUG_PAGEALLOC is set, this parameter
                        [KNL] Minimal page reporting order
                        Format: <integer>
                        Adjust the minimal page reporting order. The page
-                       reporting is disabled when it exceeds MAX_ORDER.
+                       reporting is disabled when it exceeds MAX_PAGE_ORDER.
 
        panic=          [KNL] Kernel behaviour on panic: delay <timeout>
                        timeout > 0: seconds before rebooting
index 30a3be3c48f398302d985db57acefaf2b902ac4b..dca15d15feaf99ce44d2a73d857928c3eac56da0 100644 (file)
@@ -263,20 +263,20 @@ the name indicates, this function allocates pages of memory, and the second
 argument is "order" or a power of two number of pages, that is
 (for PAGE_SIZE == 4096) order=0 ==> 4096 bytes, order=1 ==> 8192 bytes,
 order=2 ==> 16384 bytes, etc. The maximum size of a
-region allocated by __get_free_pages is determined by the MAX_ORDER macro. More
-precisely the limit can be calculated as::
+region allocated by __get_free_pages is determined by the MAX_PAGE_ORDER macro.
+More precisely the limit can be calculated as::
 
-   PAGE_SIZE << MAX_ORDER
+   PAGE_SIZE << MAX_PAGE_ORDER
 
    In a i386 architecture PAGE_SIZE is 4096 bytes
-   In a 2.4/i386 kernel MAX_ORDER is 10
-   In a 2.6/i386 kernel MAX_ORDER is 11
+   In a 2.4/i386 kernel MAX_PAGE_ORDER is 10
+   In a 2.6/i386 kernel MAX_PAGE_ORDER is 11
 
 So get_free_pages can allocate as much as 4MB or 8MB in a 2.4/2.6 kernel
 respectively, with an i386 architecture.
 
 User space programs can include /usr/include/sys/user.h and
-/usr/include/linux/mmzone.h to get PAGE_SIZE MAX_ORDER declarations.
+/usr/include/linux/mmzone.h to get PAGE_SIZE MAX_PAGE_ORDER declarations.
 
 The pagesize can also be determined dynamically with the getpagesize (2)
 system call.
@@ -324,7 +324,7 @@ Definitions:
                (see /proc/slabinfo)
 <pointer size>  depends on the architecture -- ``sizeof(void *)``
 <page size>     depends on the architecture -- PAGE_SIZE or getpagesize (2)
-<max-order>     is the value defined with MAX_ORDER
+<max-order>     is the value defined with MAX_PAGE_ORDER
 <frame size>    it's an upper bound of frame's capture size (more on this later)
 ==============  ================================================================
 
index f8567e95f98bef4ac91bf1088552b64f79422de6..b2ab8db63c4b790e8aae4fd85f14e02e997ebdb8 100644 (file)
@@ -1362,7 +1362,7 @@ config ARCH_FORCE_MAX_ORDER
        default "10"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
index 12d611f3da5d6921ee5ea261680ed2bba5459cf9..442539fd06fea3a86139b434bce63b4f7089e8c2 100644 (file)
@@ -1520,15 +1520,15 @@ config XEN
 
 # include/linux/mmzone.h requires the following to be true:
 #
-#   MAX_ORDER + PAGE_SHIFT <= SECTION_SIZE_BITS
+#   MAX_PAGE_ORDER + PAGE_SHIFT <= SECTION_SIZE_BITS
 #
-# so the maximum value of MAX_ORDER is SECTION_SIZE_BITS - PAGE_SHIFT:
+# so the maximum value of MAX_PAGE_ORDER is SECTION_SIZE_BITS - PAGE_SHIFT:
 #
-#     | SECTION_SIZE_BITS |  PAGE_SHIFT  |  max MAX_ORDER  |  default MAX_ORDER |
-# ----+-------------------+--------------+-----------------+--------------------+
-# 4K  |       27          |      12      |       15        |         10         |
-# 16K |       27          |      14      |       13        |         11         |
-# 64K |       29          |      16      |       13        |         13         |
+#     | SECTION_SIZE_BITS |  PAGE_SHIFT  |  max MAX_PAGE_ORDER  |  default MAX_PAGE_ORDER |
+# ----+-------------------+--------------+----------------------+-------------------------+
+# 4K  |       27          |      12      |       15             |         10              |
+# 16K |       27          |      14      |       13             |         11              |
+# 64K |       29          |      16      |       13             |         13              |
 config ARCH_FORCE_MAX_ORDER
        int
        default "13" if ARM64_64K_PAGES
@@ -1536,16 +1536,16 @@ config ARCH_FORCE_MAX_ORDER
        default "10"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
          large blocks of physically contiguous memory is required.
 
          The maximal size of allocation cannot exceed the size of the
-         section, so the value of MAX_ORDER should satisfy
+         section, so the value of MAX_PAGE_ORDER should satisfy
 
-           MAX_ORDER + PAGE_SHIFT <= SECTION_SIZE_BITS
+           MAX_PAGE_ORDER + PAGE_SHIFT <= SECTION_SIZE_BITS
 
          Don't change if unsure.
 
index 5f54376210293e5feff6c35b4456963569d5ead3..8a8acc220371cb4403266f06baeb4ce42307d5e5 100644 (file)
@@ -10,7 +10,7 @@
 /*
  * Section size must be at least 512MB for 64K base
  * page size config. Otherwise it will be less than
- * MAX_ORDER and the build process will fail.
+ * MAX_PAGE_ORDER and the build process will fail.
  */
 #ifdef CONFIG_ARM64_64K_PAGES
 #define SECTION_SIZE_BITS 29
index b1e392186a0f6b15d1a49c192e6a76773e0b2cb6..e691290d3765d38d9fb49d6f7abf949aae412c6a 100644 (file)
@@ -228,7 +228,8 @@ int hyp_pool_init(struct hyp_pool *pool, u64 pfn, unsigned int nr_pages,
        int i;
 
        hyp_spin_lock_init(&pool->lock);
-       pool->max_order = min(MAX_ORDER, get_order(nr_pages << PAGE_SHIFT));
+       pool->max_order = min(MAX_PAGE_ORDER,
+                             get_order(nr_pages << PAGE_SHIFT));
        for (i = 0; i <= pool->max_order; i++)
                INIT_LIST_HEAD(&pool->free_area[i]);
        pool->range_start = phys;
index f5aae342632cbf7f87512682f7fa3ba3576d1382..8116ac599f801d5b621ef8af96178094c877c5a4 100644 (file)
@@ -51,7 +51,7 @@ void __init arm64_hugetlb_cma_reserve(void)
         * page allocator. Just warn if there is any change
         * breaking this assumption.
         */
-       WARN_ON(order <= MAX_ORDER);
+       WARN_ON(order <= MAX_PAGE_ORDER);
        hugetlb_cma_reserve(order);
 }
 #endif /* CONFIG_CMA */
index ad69b466a08bd10e2ae79dd55323312ed2345d95..9dcf245c9cbfabd9ea028f2d4b5d6b939cdd36d9 100644 (file)
@@ -402,7 +402,7 @@ config ARCH_FORCE_MAX_ORDER
        default "10"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
index d54464021a618ecd20c7bd23cbf52bce65208592..58d9565dc2c770679111bb522c0ced0eae9aff5a 100644 (file)
@@ -50,7 +50,7 @@ config ARCH_FORCE_MAX_ORDER
        default "10"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
index 1f11a62809f205b1fbcf7729549650cc567da63a..52d7e3fad55339ae5c58e53b04e50704b5439dea 100644 (file)
@@ -915,7 +915,7 @@ config ARCH_FORCE_MAX_ORDER
        default "10"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
index d19fb1f3007d2df32394a87138b545802d78819d..c0e8d597e4cb2d6dab8fff1131ffddd191fc746c 100644 (file)
@@ -97,7 +97,7 @@ static long mm_iommu_do_alloc(struct mm_struct *mm, unsigned long ua,
        }
 
        mmap_read_lock(mm);
-       chunk = (1UL << (PAGE_SHIFT + MAX_ORDER)) /
+       chunk = (1UL << (PAGE_SHIFT + MAX_PAGE_ORDER)) /
                        sizeof(struct vm_area_struct *);
        chunk = min(chunk, entries);
        for (entry = 0; entry < entries; entry += chunk) {
index f7c683b672c1849a49a6f817236256219d8439a2..0a540b37aab62c2b111d702aa35e769636d2f634 100644 (file)
@@ -615,7 +615,7 @@ void __init gigantic_hugetlb_cma_reserve(void)
                order = mmu_psize_to_shift(MMU_PAGE_16G) - PAGE_SHIFT;
 
        if (order) {
-               VM_WARN_ON(order <= MAX_ORDER);
+               VM_WARN_ON(order <= MAX_PAGE_ORDER);
                hugetlb_cma_reserve(order);
        }
 }
index 28fac4770073166557610248c081d0a4d1775084..23f5b5093ec18f33c841ac25040a78d47b394558 100644 (file)
@@ -1389,7 +1389,7 @@ static long pnv_pci_ioda2_setup_default_config(struct pnv_ioda_pe *pe)
         * DMA window can be larger than available memory, which will
         * cause errors later.
         */
-       const u64 maxblock = 1UL << (PAGE_SHIFT + MAX_ORDER);
+       const u64 maxblock = 1UL << (PAGE_SHIFT + MAX_PAGE_ORDER);
 
        /*
         * We create the default window as big as we can. The constraint is
index 511c17aede4a96a554e979f3ba1f638e5b687f39..455311d9a5e9c9708753cb1cfac680c5fea5ca03 100644 (file)
@@ -26,7 +26,7 @@ config ARCH_FORCE_MAX_ORDER
        default "10"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE:_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
index 49849790e66dc301ca1f5622e0f67170df105022..204c43cb3d4356dfe37533701a2fc1f640208381 100644 (file)
@@ -277,7 +277,7 @@ config ARCH_FORCE_MAX_ORDER
        default "12"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
index c80b0a21d709cd2dc16257fad772676fc8c2ce84..083e5f05a7f0c3311cad76c90cdc30179c1969b0 100644 (file)
@@ -194,7 +194,7 @@ static void *dma_4v_alloc_coherent(struct device *dev, size_t size,
 
        size = IO_PAGE_ALIGN(size);
        order = get_order(size);
-       if (unlikely(order > MAX_ORDER))
+       if (unlikely(order > MAX_PAGE_ORDER))
                return NULL;
 
        npages = size >> IO_PAGE_SHIFT;
index 5e2931a184094bc5f074a8e873759127167f7077..6acd8a4c1e2aff00417a5ad97b847b89be2cfd2b 100644 (file)
@@ -402,8 +402,8 @@ void tsb_grow(struct mm_struct *mm, unsigned long tsb_index, unsigned long rss)
        unsigned long new_rss_limit;
        gfp_t gfp_flags;
 
-       if (max_tsb_size > PAGE_SIZE << MAX_ORDER)
-               max_tsb_size = PAGE_SIZE << MAX_ORDER;
+       if (max_tsb_size > PAGE_SIZE << MAX_PAGE_ORDER)
+               max_tsb_size = PAGE_SIZE << MAX_PAGE_ORDER;
 
        new_cache_index = 0;
        for (new_size = 8192; new_size < max_tsb_size; new_size <<= 1UL) {
index b1bfed0c85288fbb0ec583d571c9b3c6202b62c5..7a9820797eae24c1523da6415bc23fd43ddb8a36 100644 (file)
@@ -373,10 +373,10 @@ int __init linux_main(int argc, char **argv)
        max_physmem = TASK_SIZE - uml_physmem - iomem_size - MIN_VMALLOC;
 
        /*
-        * Zones have to begin on a 1 << MAX_ORDER page boundary,
+        * Zones have to begin on a 1 << MAX_PAGE_ORDER page boundary,
         * so this makes sure that's true for highmem
         */
-       max_physmem &= ~((1 << (PAGE_SHIFT + MAX_ORDER)) - 1);
+       max_physmem &= ~((1 << (PAGE_SHIFT + MAX_PAGE_ORDER)) - 1);
        if (physmem_size + iomem_size > max_physmem) {
                highmem = physmem_size + iomem_size - max_physmem;
                physmem_size -= highmem;
index 7d792077e5fdc778d530135a7b32c2f8287af038..e031eaf36c991317f8801bdffdc3cf919cb2684b 100644 (file)
@@ -793,7 +793,7 @@ config ARCH_FORCE_MAX_ORDER
        default "10"
        help
          The kernel page allocator limits the size of maximal physically
-         contiguous allocations. The limit is called MAX_ORDER and it
+         contiguous allocations. The limit is called MAX_PAGE_ORDER and it
          defines the maximal power of two of number of pages that can be
          allocated as a single contiguous block. This option allows
          overriding the default setting when ability to allocate very
index 4a8e43a7a6a408b89d1c5bf67cfde9ad458a06f2..aaeb2c9c071a6a8be282b0daa677f57101ff56c9 100644 (file)
@@ -451,7 +451,7 @@ static int create_sgt(struct qaic_device *qdev, struct sg_table **sgt_out, u64 s
                 * later
                 */
                buf_extra = (PAGE_SIZE - size % PAGE_SIZE) % PAGE_SIZE;
-               max_order = min(MAX_ORDER - 1, get_order(size));
+               max_order = min(MAX_PAGE_ORDER - 1, get_order(size));
        } else {
                /* allocate a single page for book keeping */
                nr_pages = 1;
index bdd80b73c3e6c17b4dc6955a4349fee34f0adfdb..fb84cda92a753fc49f57cb557fb65d6212222b74 100644 (file)
@@ -226,8 +226,8 @@ static ssize_t regmap_read_debugfs(struct regmap *map, unsigned int from,
        if (*ppos < 0 || !count)
                return -EINVAL;
 
-       if (count > (PAGE_SIZE << MAX_ORDER))
-               count = PAGE_SIZE << MAX_ORDER;
+       if (count > (PAGE_SIZE << MAX_PAGE_ORDER))
+               count = PAGE_SIZE << MAX_PAGE_ORDER;
 
        buf = kmalloc(count, GFP_KERNEL);
        if (!buf)
@@ -373,8 +373,8 @@ static ssize_t regmap_reg_ranges_read_file(struct file *file,
        if (*ppos < 0 || !count)
                return -EINVAL;
 
-       if (count > (PAGE_SIZE << MAX_ORDER))
-               count = PAGE_SIZE << MAX_ORDER;
+       if (count > (PAGE_SIZE << MAX_PAGE_ORDER))
+               count = PAGE_SIZE << MAX_PAGE_ORDER;
 
        buf = kmalloc(count, GFP_KERNEL);
        if (!buf)
index 11114a5d9e5c4682f7ffb2e8d0b3c9a526eb0cdc..d0e41d52d6a9b58474c52edd7f5dc23f9a0c19c1 100644 (file)
@@ -3079,7 +3079,7 @@ static void raw_cmd_free(struct floppy_raw_cmd **ptr)
        }
 }
 
-#define MAX_LEN (1UL << MAX_ORDER << PAGE_SHIFT)
+#define MAX_LEN (1UL << MAX_PAGE_ORDER << PAGE_SHIFT)
 
 static int raw_cmd_copyin(int cmd, void __user *param,
                                 struct floppy_raw_cmd **rcmd)
index fcaccd0b5a651e995f8135ad39924f8f76b6ec45..e4d3f45242f63258ea0efc9f0a0a7ca9b411333c 100644 (file)
@@ -906,7 +906,7 @@ static int sev_ioctl_do_get_id2(struct sev_issue_cmd *argp)
                /*
                 * The length of the ID shouldn't be assumed by software since
                 * it may change in the future.  The allocation size is limited
-                * to 1 << (PAGE_SHIFT + MAX_ORDER) by the page allocator.
+                * to 1 << (PAGE_SHIFT + MAX_PAGE_ORDER) by the page allocator.
                 * If the allocation fails, simply return ENOMEM rather than
                 * warning in the kernel log.
                 */
index 3df7a256e9197a3dba8b9f12cc30bdc382ac9f0e..5c1012d7ffa9fc9da6756e6701d7a89f9f664465 100644 (file)
@@ -70,11 +70,11 @@ struct hisi_acc_sgl_pool *hisi_acc_create_sgl_pool(struct device *dev,
                         HISI_ACC_SGL_ALIGN_SIZE);
 
        /*
-        * the pool may allocate a block of memory of size PAGE_SIZE * 2^MAX_ORDER,
+        * the pool may allocate a block of memory of size PAGE_SIZE * 2^MAX_PAGE_ORDER,
         * block size may exceed 2^31 on ia64, so the max of block size is 2^31
         */
-       block_size = 1 << (PAGE_SHIFT + MAX_ORDER < 32 ?
-                          PAGE_SHIFT + MAX_ORDER : 31);
+       block_size = 1 << (PAGE_SHIFT + MAX_PAGE_ORDER < 32 ?
+                          PAGE_SHIFT + MAX_PAGE_ORDER : 31);
        sgl_num_per_block = block_size / sgl_size;
        block_num = count / sgl_num_per_block;
        remain_sgl = count % sgl_num_per_block;
index 6bc26b4b06b860cc1ec3357ff84c571293713d15..ea7561ae6e136f1c196572a8d10eafddaa99dfa0 100644 (file)
@@ -36,7 +36,7 @@ static int i915_gem_object_get_pages_internal(struct drm_i915_gem_object *obj)
        struct sg_table *st;
        struct scatterlist *sg;
        unsigned int npages; /* restricted by sg_alloc_table */
-       int max_order = MAX_ORDER;
+       int max_order = MAX_PAGE_ORDER;
        unsigned int max_segment;
        gfp_t gfp;
 
index 6b9f6cf50bf6b24b9bb5804b123db70adeb206d8..84c50c4c4af7d7ab9fe92a690f4c4d902b32d5a7 100644 (file)
@@ -115,7 +115,7 @@ static int get_huge_pages(struct drm_i915_gem_object *obj)
                do {
                        struct page *page;
 
-                       GEM_BUG_ON(order > MAX_ORDER);
+                       GEM_BUG_ON(order > MAX_PAGE_ORDER);
                        page = alloc_pages(GFP | __GFP_ZERO, order);
                        if (!page)
                                goto err;
index 2d9cae8cd9844643292b702960dbf5de005a6eb9..cceaa18d4e46bb74882fa4f1d7e674aa75d83f9c 100644 (file)
@@ -109,7 +109,7 @@ static const struct ttm_pool_test_case ttm_pool_basic_cases[] = {
        },
        {
                .description = "Above the allocation limit",
-               .order = MAX_ORDER + 1,
+               .order = MAX_PAGE_ORDER + 1,
        },
        {
                .description = "One page, with coherent DMA mappings enabled",
@@ -118,7 +118,7 @@ static const struct ttm_pool_test_case ttm_pool_basic_cases[] = {
        },
        {
                .description = "Above the allocation limit, with coherent DMA mappings enabled",
-               .order = MAX_ORDER + 1,
+               .order = MAX_PAGE_ORDER + 1,
                .use_dma_alloc = true,
        },
 };
@@ -165,7 +165,7 @@ static void ttm_pool_alloc_basic(struct kunit *test)
        fst_page = tt->pages[0];
        last_page = tt->pages[tt->num_pages - 1];
 
-       if (params->order <= MAX_ORDER) {
+       if (params->order <= MAX_PAGE_ORDER) {
                if (params->use_dma_alloc) {
                        KUNIT_ASSERT_NOT_NULL(test, (void *)fst_page->private);
                        KUNIT_ASSERT_NOT_NULL(test, (void *)last_page->private);
@@ -182,7 +182,7 @@ static void ttm_pool_alloc_basic(struct kunit *test)
                         * order 0 blocks
                         */
                        KUNIT_ASSERT_EQ(test, fst_page->private,
-                                       min_t(unsigned int, MAX_ORDER,
+                                       min_t(unsigned int, MAX_PAGE_ORDER,
                                              params->order));
                        KUNIT_ASSERT_EQ(test, last_page->private, 0);
                }
index d183bb97c526cba4b78bd5e413b7e5cf85bb3d84..b62f420a9f969d61e09e1cde82f2e49b9415d8aa 100644 (file)
@@ -447,7 +447,7 @@ int ttm_pool_alloc(struct ttm_pool *pool, struct ttm_tt *tt,
        else
                gfp_flags |= GFP_HIGHUSER;
 
-       for (order = min_t(unsigned int, MAX_ORDER, __fls(num_pages));
+       for (order = min_t(unsigned int, MAX_PAGE_ORDER, __fls(num_pages));
             num_pages;
             order = min_t(unsigned int, order, __fls(num_pages))) {
                struct ttm_pool_type *pt;
index 961205ba86d25d0cbaa2c116ea9091b59ccd0ddf..925ac6a47bceb7b15cd184741d478dc3675d5f09 100644 (file)
 #ifdef CONFIG_CMA_ALIGNMENT
 #define Q_MAX_SZ_SHIFT                 (PAGE_SHIFT + CONFIG_CMA_ALIGNMENT)
 #else
-#define Q_MAX_SZ_SHIFT                 (PAGE_SHIFT + MAX_ORDER)
+#define Q_MAX_SZ_SHIFT                 (PAGE_SHIFT + MAX_PAGE_ORDER)
 #endif
 
 /*
index 85163a83df2f68f94a23c48731c45e755bf625bd..e59f50e11ea8bbc569714c238b0436d29a8380e6 100644 (file)
@@ -884,7 +884,7 @@ static struct page **__iommu_dma_alloc_pages(struct device *dev,
        struct page **pages;
        unsigned int i = 0, nid = dev_to_node(dev);
 
-       order_mask &= GENMASK(MAX_ORDER, 0);
+       order_mask &= GENMASK(MAX_PAGE_ORDER, 0);
        if (!order_mask)
                return NULL;
 
index 9a7a74239eabb7cd3d2a3a077316d54833ec18cb..d097001c1e3ee7e1d1380a891660dfc522a37554 100644 (file)
@@ -2465,8 +2465,8 @@ static bool its_parse_indirect_baser(struct its_node *its,
         * feature is not supported by hardware.
         */
        new_order = max_t(u32, get_order(esz << ids), new_order);
-       if (new_order > MAX_ORDER) {
-               new_order = MAX_ORDER;
+       if (new_order > MAX_PAGE_ORDER) {
+               new_order = MAX_PAGE_ORDER;
                ids = ilog2(PAGE_ORDER_TO_SIZE(new_order) / (int)esz);
                pr_warn("ITS@%pa: %s Table too large, reduce ids %llu->%u\n",
                        &its->phys_base, its_base_type_string[type],
index f03d7dba270c52f1313af3ee079cd977a207b34d..13c65b7e1ed63520c3227804ecaae2e1de6dbf90 100644 (file)
@@ -1170,7 +1170,7 @@ static void __cache_size_refresh(void)
  * If the allocation may fail we use __get_free_pages. Memory fragmentation
  * won't have a fatal effect here, but it just causes flushes of some other
  * buffers and more I/O will be performed. Don't use __get_free_pages if it
- * always fails (i.e. order > MAX_ORDER).
+ * always fails (i.e. order > MAX_PAGE_ORDER).
  *
  * If the allocation shouldn't fail we use __vmalloc. This is only for the
  * initial reserve allocation, so there's no risk of wasting all vmalloc
index 2ae8560b6a14ad9e6b2313fa17d1bb98a209af5a..855b482cbff1f072912e957e8c1cc1d3b4e1b319 100644 (file)
@@ -1673,7 +1673,7 @@ static struct bio *crypt_alloc_buffer(struct dm_crypt_io *io, unsigned int size)
        unsigned int nr_iovecs = (size + PAGE_SIZE - 1) >> PAGE_SHIFT;
        gfp_t gfp_mask = GFP_NOWAIT | __GFP_HIGHMEM;
        unsigned int remaining_size;
-       unsigned int order = MAX_ORDER;
+       unsigned int order = MAX_PAGE_ORDER;
 
 retry:
        if (unlikely(gfp_mask & __GFP_DIRECT_RECLAIM))
index f57fb821528d7ef60639397772721bb5800f0c0d..7916ed9f10e841e27575ce0f42763409da134fe5 100644 (file)
@@ -434,7 +434,7 @@ static struct bio *clone_bio(struct dm_target *ti, struct flakey_c *fc, struct b
 
        remaining_size = size;
 
-       order = MAX_ORDER;
+       order = MAX_PAGE_ORDER;
        while (remaining_size) {
                struct page *pages;
                unsigned size_to_add, to_copy;
index 55fc5b80e649f329769fd4e141ad782066bfdcf7..4441aca2280a7aece783efc3a77b9ffff3486cf8 100644 (file)
@@ -443,7 +443,7 @@ static int genwqe_mmap(struct file *filp, struct vm_area_struct *vma)
        if (vsize == 0)
                return -EINVAL;
 
-       if (get_order(vsize) > MAX_ORDER)
+       if (get_order(vsize) > MAX_PAGE_ORDER)
                return -ENOMEM;
 
        dma_map = kzalloc(sizeof(struct dma_mapping), GFP_KERNEL);
index 1c798d6b2dfb1cf08d8bde923a58c6aa35239f4c..a2c4a9b4f871cc326fe652c8bf30524919347f05 100644 (file)
@@ -210,7 +210,7 @@ u32 genwqe_crc32(u8 *buff, size_t len, u32 init)
 void *__genwqe_alloc_consistent(struct genwqe_dev *cd, size_t size,
                               dma_addr_t *dma_handle)
 {
-       if (get_order(size) > MAX_ORDER)
+       if (get_order(size) > MAX_PAGE_ORDER)
                return NULL;
 
        return dma_alloc_coherent(&cd->pci_dev->dev, size, dma_handle,
@@ -308,7 +308,7 @@ int genwqe_alloc_sync_sgl(struct genwqe_dev *cd, struct genwqe_sgl *sgl,
        sgl->write = write;
        sgl->sgl_size = genwqe_sgl_size(sgl->nr_pages);
 
-       if (get_order(sgl->sgl_size) > MAX_ORDER) {
+       if (get_order(sgl->sgl_size) > MAX_PAGE_ORDER) {
                dev_err(&pci_dev->dev,
                        "[%s] err: too much memory requested!\n", __func__);
                return ret;
index b618797a7e8de2563c5821347ecb441e4f0b7ad5..f1695c889d3a07feaa8d2de9e782aa1ba847d0be 100644 (file)
@@ -1041,7 +1041,7 @@ static void hns3_init_tx_spare_buffer(struct hns3_enet_ring *ring)
                return;
 
        order = get_order(alloc_size);
-       if (order > MAX_ORDER) {
+       if (order > MAX_PAGE_ORDER) {
                if (net_ratelimit())
                        dev_warn(ring_to_dev(ring), "failed to allocate tx spare buffer, exceed to max order\n");
                return;
index 4e18b4cefa972cd69721af27e55765686e635495..94ac36b1408be960d340d7fbdd63c63e42e5a0c1 100644 (file)
@@ -48,7 +48,7 @@
  * of 4096 jumbo frames (MTU=9000) we will need about 9K*4K = 36MB plus
  * some padding.
  *
- * But the size of a single DMA region is limited by MAX_ORDER in the
+ * But the size of a single DMA region is limited by MAX_PAGE_ORDER in the
  * kernel (about 16MB currently).  To support say 4K Jumbo frames, we
  * use a set of LTBs (struct ltb_set) per pool.
  *
@@ -75,7 +75,7 @@
  * pool for the 4MB. Thus the 16 Rx and Tx queues require 32 * 5 = 160
  * plus 16 for the TSO pools for a total of 176 LTB mappings per VNIC.
  */
-#define IBMVNIC_ONE_LTB_MAX    ((u32)((1 << MAX_ORDER) * PAGE_SIZE))
+#define IBMVNIC_ONE_LTB_MAX    ((u32)((1 << MAX_PAGE_ORDER) * PAGE_SIZE))
 #define IBMVNIC_ONE_LTB_SIZE   min((u32)(8 << 20), IBMVNIC_ONE_LTB_MAX)
 #define IBMVNIC_LTB_SET_SIZE   (38 << 20)
 
index a80939fe2ee6d1b1ea09f3e14122f0546fbfefa4..6a29d2594b914c915c791a1d7153c14e68611144 100644 (file)
@@ -927,8 +927,8 @@ static phys_addr_t hvfb_get_phymem(struct hv_device *hdev,
        if (request_size == 0)
                return -1;
 
-       if (order <= MAX_ORDER) {
-               /* Call alloc_pages if the size is less than 2^MAX_ORDER */
+       if (order <= MAX_PAGE_ORDER) {
+               /* Call alloc_pages if the size is less than 2^MAX_PAGE_ORDER */
                page = alloc_pages(GFP_KERNEL | __GFP_ZERO, order);
                if (!page)
                        return -1;
@@ -958,7 +958,7 @@ static void hvfb_release_phymem(struct hv_device *hdev,
 {
        unsigned int order = get_order(size);
 
-       if (order <= MAX_ORDER)
+       if (order <= MAX_PAGE_ORDER)
                __free_pages(pfn_to_page(paddr >> PAGE_SHIFT), order);
        else
                dma_free_coherent(&hdev->device,
index 840ead69654b85ea2e2927fc315dc3e7b90cec0d..a32e5b2924c9c74b5863ca22174b4192d8bbc6d9 100644 (file)
@@ -197,7 +197,7 @@ static int vmlfb_alloc_vram(struct vml_info *vinfo,
                va = &vinfo->vram[i];
                order = 0;
 
-               while (requested > (PAGE_SIZE << order) && order <= MAX_ORDER)
+               while (requested > (PAGE_SIZE << order) && order <= MAX_PAGE_ORDER)
                        order++;
 
                err = vmlfb_alloc_vram_area(va, order, 0);
index 1fe93e93f5bcc60d6736c3e27d90a485bc21a68c..59cdc0292dce123613655d667e42819565d12901 100644 (file)
@@ -33,7 +33,7 @@
 #define VIRTIO_BALLOON_FREE_PAGE_ALLOC_FLAG (__GFP_NORETRY | __GFP_NOWARN | \
                                             __GFP_NOMEMALLOC)
 /* The order of free page blocks to report to host */
-#define VIRTIO_BALLOON_HINT_BLOCK_ORDER MAX_ORDER
+#define VIRTIO_BALLOON_HINT_BLOCK_ORDER MAX_PAGE_ORDER
 /* The size of a free page block in bytes */
 #define VIRTIO_BALLOON_HINT_BLOCK_BYTES \
        (1 << (VIRTIO_BALLOON_HINT_BLOCK_ORDER + PAGE_SHIFT))
index fa5226c198cc678775717d3d1db77c7090cfefd6..8e32232944423771f4e94837c82d643a87deeb51 100644 (file)
@@ -1154,13 +1154,13 @@ static void virtio_mem_clear_fake_offline(unsigned long pfn,
  */
 static void virtio_mem_fake_online(unsigned long pfn, unsigned long nr_pages)
 {
-       unsigned long order = MAX_ORDER;
+       unsigned long order = MAX_PAGE_ORDER;
        unsigned long i;
 
        /*
         * We might get called for ranges that don't cover properly aligned
-        * MAX_ORDER pages; however, we can only online properly aligned
-        * pages with an order of MAX_ORDER at maximum.
+        * MAX_PAGE_ORDER pages; however, we can only online properly aligned
+        * pages with an order of MAX_PAGE_ORDER at maximum.
         */
        while (!IS_ALIGNED(pfn | nr_pages, 1 << order))
                order--;
@@ -1280,7 +1280,7 @@ static void virtio_mem_online_page(struct virtio_mem *vm,
        bool do_online;
 
        /*
-        * We can get called with any order up to MAX_ORDER. If our subblock
+        * We can get called with any order up to MAX_PAGE_ORDER. If our subblock
         * size is smaller than that and we have a mixture of plugged and
         * unplugged subblocks within such a page, we have to process in
         * smaller granularity. In that case we'll adjust the order exactly once
index efb1b4c1a0a47a104b17ece678141d418343d343..7a6d980e614dbe3a1de7d9018e6e004fae1fd311 100644 (file)
@@ -70,7 +70,7 @@ int ramfs_nommu_expand_for_mapping(struct inode *inode, size_t newsize)
 
        /* make various checks */
        order = get_order(newsize);
-       if (unlikely(order > MAX_ORDER))
+       if (unlikely(order > MAX_PAGE_ORDER))
                return -EFBIG;
 
        ret = inode_newsize_ok(inode, newsize);
index 236ec7b63c5413407ae3dbe06622b8d3463ca7a0..c1ee640d87b11d6d9f89b573cef98270306f55a5 100644 (file)
@@ -829,7 +829,7 @@ static inline unsigned huge_page_shift(struct hstate *h)
 
 static inline bool hstate_is_gigantic(struct hstate *h)
 {
-       return huge_page_order(h) > MAX_ORDER;
+       return huge_page_order(h) > MAX_PAGE_ORDER;
 }
 
 static inline unsigned int pages_per_huge_page(const struct hstate *h)
index 1ea7636dfb7659b027c6d246160ac0e4541689aa..4ed33b12782151632e36aa114039cb4a0916fe06 100644 (file)
 
 /* Free memory management - zoned buddy allocator.  */
 #ifndef CONFIG_ARCH_FORCE_MAX_ORDER
-#define MAX_ORDER 10
+#define MAX_PAGE_ORDER 10
 #else
-#define MAX_ORDER CONFIG_ARCH_FORCE_MAX_ORDER
+#define MAX_PAGE_ORDER CONFIG_ARCH_FORCE_MAX_ORDER
 #endif
-#define MAX_ORDER_NR_PAGES (1 << MAX_ORDER)
+#define MAX_ORDER_NR_PAGES (1 << MAX_PAGE_ORDER)
 
 #define IS_MAX_ORDER_ALIGNED(pfn) IS_ALIGNED(pfn, MAX_ORDER_NR_PAGES)
 
-#define NR_PAGE_ORDERS (MAX_ORDER + 1)
+#define NR_PAGE_ORDERS (MAX_PAGE_ORDER + 1)
 
 /*
  * PAGE_ALLOC_COSTLY_ORDER is the order at which allocations are deemed
@@ -938,7 +938,7 @@ struct zone {
        struct free_area        free_area[NR_PAGE_ORDERS];
 
 #ifdef CONFIG_UNACCEPTED_MEMORY
-       /* Pages to be accepted. All pages on the list are MAX_ORDER */
+       /* Pages to be accepted. All pages on the list are MAX_PAGE_ORDER */
        struct list_head        unaccepted_pages;
 #endif
 
@@ -1748,8 +1748,8 @@ static inline bool movable_only_nodes(nodemask_t *nodes)
 #define SECTION_BLOCKFLAGS_BITS \
        ((1UL << (PFN_SECTION_SHIFT - pageblock_order)) * NR_PAGEBLOCK_BITS)
 
-#if (MAX_ORDER + PAGE_SHIFT) > SECTION_SIZE_BITS
-#error Allocator MAX_ORDER exceeds SECTION_SIZE
+#if (MAX_PAGE_ORDER + PAGE_SHIFT) > SECTION_SIZE_BITS
+#error Allocator MAX_PAGE_ORDER exceeds SECTION_SIZE
 #endif
 
 static inline unsigned long pfn_to_section_nr(unsigned long pfn)
index e83c4c09504173daa1ddc0ddc97c9082b9213a0e..3f2409b968ec65acd3a1be014a41976a7f3b8816 100644 (file)
@@ -41,14 +41,14 @@ extern unsigned int pageblock_order;
  * Huge pages are a constant size, but don't exceed the maximum allocation
  * granularity.
  */
-#define pageblock_order                min_t(unsigned int, HUGETLB_PAGE_ORDER, MAX_ORDER)
+#define pageblock_order                min_t(unsigned int, HUGETLB_PAGE_ORDER, MAX_PAGE_ORDER)
 
 #endif /* CONFIG_HUGETLB_PAGE_SIZE_VARIABLE */
 
 #else /* CONFIG_HUGETLB_PAGE */
 
 /* If huge pages are not used, group by MAX_ORDER_NR_PAGES */
-#define pageblock_order                MAX_ORDER
+#define pageblock_order                MAX_PAGE_ORDER
 
 #endif /* CONFIG_HUGETLB_PAGE */
 
index d6d6ffeeb9a2af2f3ff497b48c08e2c19f8d0efb..d63823e518c05f78917dcaf7ac0aa9273c15cde9 100644 (file)
@@ -308,7 +308,7 @@ static inline unsigned int arch_slab_minalign(void)
  * (PAGE_SIZE*2).  Larger requests are passed to the page allocator.
  */
 #define KMALLOC_SHIFT_HIGH     (PAGE_SHIFT + 1)
-#define KMALLOC_SHIFT_MAX      (MAX_ORDER + PAGE_SHIFT)
+#define KMALLOC_SHIFT_MAX      (MAX_PAGE_ORDER + PAGE_SHIFT)
 #ifndef KMALLOC_SHIFT_LOW
 #define KMALLOC_SHIFT_LOW      5
 #endif
@@ -316,7 +316,7 @@ static inline unsigned int arch_slab_minalign(void)
 
 #ifdef CONFIG_SLUB
 #define KMALLOC_SHIFT_HIGH     (PAGE_SHIFT + 1)
-#define KMALLOC_SHIFT_MAX      (MAX_ORDER + PAGE_SHIFT)
+#define KMALLOC_SHIFT_MAX      (MAX_PAGE_ORDER + PAGE_SHIFT)
 #ifndef KMALLOC_SHIFT_LOW
 #define KMALLOC_SHIFT_LOW      3
 #endif
index b481c48a31a630284f9c32d94213a210ea792334..d10613eb0f639c26862b5782154c1227b5d4f9ae 100644 (file)
@@ -84,8 +84,8 @@ static int atomic_pool_expand(struct gen_pool *pool, size_t pool_size,
        void *addr;
        int ret = -ENOMEM;
 
-       /* Cannot allocate larger than MAX_ORDER */
-       order = min(get_order(pool_size), MAX_ORDER);
+       /* Cannot allocate larger than MAX_PAGE_ORDER */
+       order = min(get_order(pool_size), MAX_PAGE_ORDER);
 
        do {
                pool_size = 1 << (PAGE_SHIFT + order);
@@ -190,7 +190,7 @@ static int __init dma_atomic_pool_init(void)
 
        /*
         * If coherent_pool was not used on the command line, default the pool
-        * sizes to 128KB per 1GB of memory, min 128KB, max MAX_ORDER.
+        * sizes to 128KB per 1GB of memory, min 128KB, max MAX_PAGE_ORDER.
         */
        if (!atomic_pool_size) {
                unsigned long pages = totalram_pages() / (SZ_1G / SZ_128K);
index 33d942615be54ccf6ed616c50a9db499c99b6816..176078bf22155f9527e84f97c92d43271956bde2 100644 (file)
@@ -686,8 +686,8 @@ static struct io_tlb_pool *swiotlb_alloc_pool(struct device *dev,
        size_t pool_size;
        size_t tlb_size;
 
-       if (nslabs > SLABS_PER_PAGE << MAX_ORDER) {
-               nslabs = SLABS_PER_PAGE << MAX_ORDER;
+       if (nslabs > SLABS_PER_PAGE << MAX_PAGE_ORDER) {
+               nslabs = SLABS_PER_PAGE << MAX_PAGE_ORDER;
                nareas = limit_nareas(nareas, nslabs);
        }
 
index e8d82c2f07d0e43514409a3fc85a6256a15512ec..60ed43d1c29e3e321f931388f15a4feffee2a5f5 100644 (file)
@@ -610,8 +610,8 @@ static struct page *rb_alloc_aux_page(int node, int order)
 {
        struct page *page;
 
-       if (order > MAX_ORDER)
-               order = MAX_ORDER;
+       if (order > MAX_PAGE_ORDER)
+               order = MAX_PAGE_ORDER;
 
        do {
                page = alloc_pages_node(node, PERF_AUX_GFP, order);
@@ -702,9 +702,9 @@ int rb_alloc_aux(struct perf_buffer *rb, struct perf_event *event,
 
        /*
         * kcalloc_node() is unable to allocate buffer if the size is larger
-        * than: PAGE_SIZE << MAX_ORDER; directly bail out in this case.
+        * than: PAGE_SIZE << MAX_PAGE_ORDER; directly bail out in this case.
         */
-       if (get_order((unsigned long)nr_pages * sizeof(void *)) > MAX_ORDER)
+       if (get_order((unsigned long)nr_pages * sizeof(void *)) > MAX_PAGE_ORDER)
                return -ENOMEM;
        rb->aux_pages = kcalloc_node(nr_pages, sizeof(void *), GFP_KERNEL,
                                     node);
@@ -821,7 +821,7 @@ struct perf_buffer *rb_alloc(int nr_pages, long watermark, int cpu, int flags)
        size = sizeof(struct perf_buffer);
        size += nr_pages * sizeof(void *);
 
-       if (order_base_2(size) > PAGE_SHIFT+MAX_ORDER)
+       if (order_base_2(size) > PAGE_SHIFT+MAX_PAGE_ORDER)
                goto fail;
 
        node = (cpu == -1) ? cpu : cpu_to_node(cpu);
index 79d563d8f9e0ffbf520ce437681ad0af8b11b977..cb9d470f0bf74034a79913b838e84337d927eeb1 100644 (file)
@@ -381,7 +381,7 @@ config SHUFFLE_PAGE_ALLOCATOR
          the presence of a memory-side-cache. There are also incidental
          security benefits as it reduces the predictability of page
          allocations to compliment SLAB_FREELIST_RANDOM, but the
-         default granularity of shuffling on the MAX_ORDER i.e, 10th
+         default granularity of shuffling on the MAX_PAGE_ORDER i.e, 10th
          order of pages is selected based on cache utilization benefits
          on x86.
 
@@ -713,8 +713,8 @@ config HUGETLB_PAGE_SIZE_VARIABLE
          HUGETLB_PAGE_ORDER when there are multiple HugeTLB page sizes available
          on a platform.
 
-         Note that the pageblock_order cannot exceed MAX_ORDER and will be
-         clamped down to MAX_ORDER.
+         Note that the pageblock_order cannot exceed MAX_PAGE_ORDER and will be
+         clamped down to MAX_PAGE_ORDER.
 
 config CONTIG_ALLOC
        def_bool (MEMORY_ISOLATION && COMPACTION) || CMA
index 24f8eb4d62604cfb71fb4b2f4892040bae0d8764..27ada42924d59cdea7b06e0f55331280ff202398 100644 (file)
@@ -999,7 +999,7 @@ isolate_migratepages_block(struct compact_control *cc, unsigned long low_pfn,
                         * a valid page order. Consider only values in the
                         * valid order range to prevent low_pfn overflow.
                         */
-                       if (freepage_order > 0 && freepage_order <= MAX_ORDER) {
+                       if (freepage_order > 0 && freepage_order <= MAX_PAGE_ORDER) {
                                low_pfn += (1UL << freepage_order) - 1;
                                nr_scanned += (1UL << freepage_order) - 1;
                        }
@@ -1017,7 +1017,7 @@ isolate_migratepages_block(struct compact_control *cc, unsigned long low_pfn,
                if (PageCompound(page) && !cc->alloc_contig) {
                        const unsigned int order = compound_order(page);
 
-                       if (likely(order <= MAX_ORDER)) {
+                       if (likely(order <= MAX_PAGE_ORDER)) {
                                low_pfn += (1UL << order) - 1;
                                nr_scanned += (1UL << order) - 1;
                        }
index f9d145730fd1693a0265de8a47178c6c320ff054..6755f0c9d4a39820bee9d0e9ef9cce4e6befc841 100644 (file)
@@ -22,7 +22,7 @@ static int __init debug_guardpage_minorder_setup(char *buf)
 {
        unsigned long res;
 
-       if (kstrtoul(buf, 10, &res) < 0 ||  res > MAX_ORDER / 2) {
+       if (kstrtoul(buf, 10, &res) < 0 ||  res > MAX_PAGE_ORDER / 2) {
                pr_err("Bad debug_guardpage_minorder value\n");
                return 0;
        }
index e651500e597a2e857a5d532219e771c66beed18f..5662e29fe25335cf9e6227ae9fd4f22971095adb 100644 (file)
@@ -1091,7 +1091,7 @@ debug_vm_pgtable_alloc_huge_page(struct pgtable_debug_args *args, int order)
        struct page *page = NULL;
 
 #ifdef CONFIG_CONTIG_ALLOC
-       if (order > MAX_ORDER) {
+       if (order > MAX_PAGE_ORDER) {
                page = alloc_contig_pages((1 << order), GFP_KERNEL,
                                          first_online_node, NULL);
                if (page) {
@@ -1101,7 +1101,7 @@ debug_vm_pgtable_alloc_huge_page(struct pgtable_debug_args *args, int order)
        }
 #endif
 
-       if (order <= MAX_ORDER)
+       if (order <= MAX_PAGE_ORDER)
                page = alloc_pages(GFP_KERNEL, order);
 
        return page;
index 1a588e29d28733b89c3d6735895d396081979544..b9a7a57691d71fdc8662f668a355cf1792031bde 100644 (file)
@@ -682,7 +682,7 @@ static int __init hugepage_init(void)
        /*
         * hugepages can't be allocated by the buddy allocator
         */
-       MAYBE_BUILD_BUG_ON(HPAGE_PMD_ORDER > MAX_ORDER);
+       MAYBE_BUILD_BUG_ON(HPAGE_PMD_ORDER > MAX_PAGE_ORDER);
        /*
         * we use page->mapping and page->index in second tail page
         * as list_head: assuming THP order >= 2
index 378e460a6ab41dc5592f24cb4cd76981ccfbdea6..0d262784ce606fe25d0ad5d33a0c13176c60766c 100644 (file)
@@ -3410,7 +3410,7 @@ static void __init prep_and_add_bootmem_folios(struct hstate *h,
 
 /*
  * Put bootmem huge pages into the standard lists after mem_map is up.
- * Note: This only applies to gigantic (order > MAX_ORDER) pages.
+ * Note: This only applies to gigantic (order > MAX_PAGE_ORDER) pages.
  */
 static void __init gather_bootmem_prealloc(void)
 {
@@ -4790,7 +4790,7 @@ static int __init default_hugepagesz_setup(char *s)
         * The number of default huge pages (for this size) could have been
         * specified as the first hugetlb parameter: hugepages=X.  If so,
         * then default_hstate_max_huge_pages is set.  If the default huge
-        * page size is gigantic (> MAX_ORDER), then the pages must be
+        * page size is gigantic (> MAX_PAGE_ORDER), then the pages must be
         * allocated here from bootmem allocator.
         */
        if (default_hstate_max_huge_pages) {
index ac40c3d003368c65d7ba42840fe56de1a98087db..f309a010d50fb6de06e6d613b7f23357a99164ef 100644 (file)
@@ -335,7 +335,7 @@ static inline bool page_is_buddy(struct page *page, struct page *buddy,
  * satisfies the following equation:
  *     P = B & ~(1 << O)
  *
- * Assumption: *_mem_map is contiguous at least up to MAX_ORDER
+ * Assumption: *_mem_map is contiguous at least up to MAX_PAGE_ORDER
  */
 static inline unsigned long
 __find_buddy_pfn(unsigned long page_pfn, unsigned int order)
index 103e2e88ea033f86743d588159983d964964d3be..3ac3b8921d36fbaa30b6409ef776f48db9b4ad3e 100644 (file)
@@ -141,7 +141,7 @@ struct smallstack {
 
 static struct smallstack collect = {
        .index = 0,
-       .order = MAX_ORDER,
+       .order = MAX_PAGE_ORDER,
 };
 
 static void smallstack_push(struct smallstack *stack, struct page *pages)
@@ -211,8 +211,8 @@ static void kmsan_memblock_discard(void)
         *    order=N-1,
         *  - repeat.
         */
-       collect.order = MAX_ORDER;
-       for (int i = MAX_ORDER; i >= 0; i--) {
+       collect.order = MAX_PAGE_ORDER;
+       for (int i = MAX_PAGE_ORDER; i >= 0; i--) {
                if (held_back[i].shadow)
                        smallstack_push(&collect, held_back[i].shadow);
                if (held_back[i].origin)
index 4a62f7774b65bf7096ccebad5f49063a400ae092..8c194d8afeecbd841b326eccdedd01cac6bf4f88 100644 (file)
@@ -2113,12 +2113,13 @@ static void __init __free_pages_memory(unsigned long start, unsigned long end)
                 * Free the pages in the largest chunks alignment allows.
                 *
                 * __ffs() behaviour is undefined for 0. start == 0 is
-                * MAX_ORDER-aligned, set order to MAX_ORDER for the case.
+                * MAX_PAGE_ORDER-aligned, set order to MAX_PAGE_ORDER for
+                * the case.
                 */
                if (start)
-                       order = min_t(int, MAX_ORDER, __ffs(start));
+                       order = min_t(int, MAX_PAGE_ORDER, __ffs(start));
                else
-                       order = MAX_ORDER;
+                       order = MAX_PAGE_ORDER;
 
                while (start + (1UL << order) > end)
                        order--;
index 926e1cfb10e9413451cb37c227aaf97aff4e506e..b3c0ff52bb72e7a92117358766fcc822dfada1e6 100644 (file)
@@ -645,7 +645,7 @@ static void online_pages_range(unsigned long start_pfn, unsigned long nr_pages)
        unsigned long pfn;
 
        /*
-        * Online the pages in MAX_ORDER aligned chunks. The callback might
+        * Online the pages in MAX_PAGE_ORDER aligned chunks. The callback might
         * decide to not expose all pages to the buddy (e.g., expose them
         * later). We account all pages as being online and belonging to this
         * zone ("present").
@@ -660,12 +660,13 @@ static void online_pages_range(unsigned long start_pfn, unsigned long nr_pages)
                 * Free to online pages in the largest chunks alignment allows.
                 *
                 * __ffs() behaviour is undefined for 0. start == 0 is
-                * MAX_ORDER-aligned, Set order to MAX_ORDER for the case.
+                * MAX_PAGE_ORDER-aligned, Set order to MAX_PAGE_ORDER for
+                * the case.
                 */
                if (pfn)
-                       order = min_t(int, MAX_ORDER, __ffs(pfn));
+                       order = min_t(int, MAX_PAGE_ORDER, __ffs(pfn));
                else
-                       order = MAX_ORDER;
+                       order = MAX_PAGE_ORDER;
 
                (*online_page_callback)(pfn_to_page(pfn), order);
                pfn += (1UL << order);
index 2830eef2b16c8b133e50d9cbf9c80e2678d5d3c0..89dc29f1e6c6fa3a29da0ff071779f0925c36dbf 100644 (file)
@@ -1455,7 +1455,7 @@ static inline void setup_usemap(struct zone *zone) {}
 /* Initialise the number of pages represented by NR_PAGEBLOCK_BITS */
 void __init set_pageblock_order(void)
 {
-       unsigned int order = MAX_ORDER;
+       unsigned int order = MAX_PAGE_ORDER;
 
        /* Check that pageblock_nr_pages has not already been setup */
        if (pageblock_order)
@@ -1638,7 +1638,7 @@ static void __init alloc_node_mem_map(struct pglist_data *pgdat)
        start = pgdat->node_start_pfn & ~(MAX_ORDER_NR_PAGES - 1);
        offset = pgdat->node_start_pfn - start;
        /*
-        * The zone's endpoints aren't required to be MAX_ORDER
+                * The zone's endpoints aren't required to be MAX_PAGE_ORDER
         * aligned but the node_mem_map endpoints must be in order
         * for the buddy allocator to function correctly.
         */
@@ -1964,11 +1964,11 @@ static void __init deferred_free_range(unsigned long pfn,
        if (nr_pages == MAX_ORDER_NR_PAGES && IS_MAX_ORDER_ALIGNED(pfn)) {
                for (i = 0; i < nr_pages; i += pageblock_nr_pages)
                        set_pageblock_migratetype(page + i, MIGRATE_MOVABLE);
-               __free_pages_core(page, MAX_ORDER);
+               __free_pages_core(page, MAX_PAGE_ORDER);
                return;
        }
 
-       /* Accept chunks smaller than MAX_ORDER upfront */
+       /* Accept chunks smaller than MAX_PAGE_ORDER upfront */
        accept_memory(PFN_PHYS(pfn), PFN_PHYS(pfn + nr_pages));
 
        for (i = 0; i < nr_pages; i++, page++, pfn++) {
@@ -1991,8 +1991,8 @@ static inline void __init pgdat_init_report_one_done(void)
 /*
  * Returns true if page needs to be initialized or freed to buddy allocator.
  *
- * We check if a current MAX_ORDER block is valid by only checking the validity
- * of the head pfn.
+ * We check if a current MAX_PAGE_ORDER block is valid by only checking the
+ * validity of the head pfn.
  */
 static inline bool __init deferred_pfn_valid(unsigned long pfn)
 {
@@ -2149,8 +2149,8 @@ deferred_init_memmap_chunk(unsigned long start_pfn, unsigned long end_pfn,
        deferred_init_mem_pfn_range_in_zone(&i, zone, &spfn, &epfn, start_pfn);
 
        /*
-        * Initialize and free pages in MAX_ORDER sized increments so that we
-        * can avoid introducing any issues with the buddy allocator.
+        * Initialize and free pages in MAX_PAGE_ORDER sized increments so that
+        * we can avoid introducing any issues with the buddy allocator.
         */
        while (spfn < end_pfn) {
                deferred_init_maxorder(&i, zone, &spfn, &epfn);
@@ -2291,7 +2291,7 @@ bool __init deferred_grow_zone(struct zone *zone, unsigned int order)
        }
 
        /*
-        * Initialize and free pages in MAX_ORDER sized increments so
+        * Initialize and free pages in MAX_PAGE_ORDER sized increments so
         * that we can avoid introducing any issues with the buddy
         * allocator.
         */
@@ -2509,7 +2509,7 @@ void *__init alloc_large_system_hash(const char *tablename,
                        else
                                table = memblock_alloc_raw(size,
                                                           SMP_CACHE_BYTES);
-               } else if (get_order(size) > MAX_ORDER || hashdist) {
+               } else if (get_order(size) > MAX_PAGE_ORDER || hashdist) {
                        table = vmalloc_huge(size, gfp_flags);
                        virt = true;
                        if (table)
@@ -2756,7 +2756,7 @@ void __init mm_core_init(void)
 
        /*
         * page_ext requires contiguous pages,
-        * bigger than MAX_ORDER unless SPARSEMEM.
+        * bigger than MAX_PAGE_ORDER unless SPARSEMEM.
         */
        page_ext_init_flatmem();
        mem_debugging_and_hardening_init();
index ccecf6158ae43b2d4ae7316743de123b1c04638f..a01baf0454f8999e1118e6db30abe993c0f8cbbc 100644 (file)
@@ -727,7 +727,7 @@ buddy_merge_likely(unsigned long pfn, unsigned long buddy_pfn,
        unsigned long higher_page_pfn;
        struct page *higher_page;
 
-       if (order >= MAX_ORDER - 1)
+       if (order >= MAX_PAGE_ORDER - 1)
                return false;
 
        higher_page_pfn = buddy_pfn & pfn;
@@ -782,7 +782,7 @@ static inline void __free_one_page(struct page *page,
        VM_BUG_ON_PAGE(pfn & ((1 << order) - 1), page);
        VM_BUG_ON_PAGE(bad_range(zone, page), page);
 
-       while (order < MAX_ORDER) {
+       while (order < MAX_PAGE_ORDER) {
                if (compaction_capture(capc, page, order, migratetype)) {
                        __mod_zone_freepage_state(zone, -(1 << order),
                                                                migratetype);
@@ -1297,7 +1297,7 @@ void __free_pages_core(struct page *page, unsigned int order)
        atomic_long_add(nr_pages, &page_zone(page)->managed_pages);
 
        if (page_contains_unaccepted(page, order)) {
-               if (order == MAX_ORDER && __free_unaccepted(page))
+               if (order == MAX_PAGE_ORDER && __free_unaccepted(page))
                        return;
 
                accept_page(page, order);
@@ -1327,7 +1327,7 @@ void __free_pages_core(struct page *page, unsigned int order)
  *
  * Note: the function may return non-NULL struct page even for a page block
  * which contains a memory hole (i.e. there is no physical memory for a subset
- * of the pfn range). For example, if the pageblock order is MAX_ORDER, which
+ * of the pfn range). For example, if the pageblock order is MAX_PAGE_ORDER, which
  * will fall into 2 sub-sections, and the end pfn of the pageblock may be hole
  * even though the start pfn is online and valid. This should be safe most of
  * the time because struct pages are still initialized via init_unavailable_range()
@@ -2018,7 +2018,7 @@ __rmqueue_fallback(struct zone *zone, int order, int start_migratetype,
         * approximates finding the pageblock with the most free pages, which
         * would be too costly to do exactly.
         */
-       for (current_order = MAX_ORDER; current_order >= min_order;
+       for (current_order = MAX_PAGE_ORDER; current_order >= min_order;
                                --current_order) {
                area = &(zone->free_area[current_order]);
                fallback_mt = find_suitable_fallback(area, current_order,
@@ -2056,7 +2056,7 @@ find_smallest:
         * This should not happen - we already found a suitable fallback
         * when looking for the largest page.
         */
-       VM_BUG_ON(current_order > MAX_ORDER);
+       VM_BUG_ON(current_order > MAX_PAGE_ORDER);
 
 do_steal:
        page = get_page_from_free_area(area, fallback_mt);
@@ -4533,7 +4533,7 @@ struct page *__alloc_pages(gfp_t gfp, unsigned int order, int preferred_nid,
         * There are several places where we assume that the order value is sane
         * so bail out early if the request is out of bound.
         */
-       if (WARN_ON_ONCE_GFP(order > MAX_ORDER, gfp))
+       if (WARN_ON_ONCE_GFP(order > MAX_PAGE_ORDER, gfp))
                return NULL;
 
        gfp &= gfp_allowed_mask;
@@ -4815,7 +4815,7 @@ static void *make_alloc_exact(unsigned long addr, unsigned int order,
  * minimum number of pages to satisfy the request.  alloc_pages() can only
  * allocate memory in power-of-two pages.
  *
- * This function is also limited by MAX_ORDER.
+ * This function is also limited by MAX_PAGE_ORDER.
  *
  * Memory allocated by this function must be released by free_pages_exact().
  *
@@ -6373,7 +6373,7 @@ int alloc_contig_range(unsigned long start, unsigned long end,
        order = 0;
        outer_start = start;
        while (!PageBuddy(pfn_to_page(outer_start))) {
-               if (++order > MAX_ORDER) {
+               if (++order > MAX_PAGE_ORDER) {
                        outer_start = start;
                        break;
                }
@@ -6635,7 +6635,7 @@ bool is_free_buddy_page(struct page *page)
                        break;
        }
 
-       return order <= MAX_ORDER;
+       return order <= MAX_PAGE_ORDER;
 }
 EXPORT_SYMBOL(is_free_buddy_page);
 
@@ -6807,9 +6807,9 @@ static bool try_to_accept_memory_one(struct zone *zone)
        __mod_zone_page_state(zone, NR_UNACCEPTED, -MAX_ORDER_NR_PAGES);
        spin_unlock_irqrestore(&zone->lock, flags);
 
-       accept_page(page, MAX_ORDER);
+       accept_page(page, MAX_PAGE_ORDER);
 
-       __free_pages_ok(page, MAX_ORDER, FPI_TO_TAIL);
+       __free_pages_ok(page, MAX_PAGE_ORDER, FPI_TO_TAIL);
 
        if (last)
                static_branch_dec(&zones_with_unaccepted_pages);
index bcf99ba747a05aa9e0015ab431fba20c768d7c29..cd0ea36682533ae7956a25ba50086c3584ec4bfa 100644 (file)
@@ -226,7 +226,7 @@ static void unset_migratetype_isolate(struct page *page, int migratetype)
         */
        if (PageBuddy(page)) {
                order = buddy_order(page);
-               if (order >= pageblock_order && order < MAX_ORDER) {
+               if (order >= pageblock_order && order < MAX_PAGE_ORDER) {
                        buddy = find_buddy_page_pfn(page, page_to_pfn(page),
                                                    order, NULL);
                        if (buddy && !is_migrate_isolate_page(buddy)) {
@@ -290,11 +290,12 @@ __first_valid_page(unsigned long pfn, unsigned long nr_pages)
  *                     isolate_single_pageblock()
  * @migratetype:       migrate type to set in error recovery.
  *
- * Free and in-use pages can be as big as MAX_ORDER and contain more than one
+ * Free and in-use pages can be as big as MAX_PAGE_ORDER and contain more than one
  * pageblock. When not all pageblocks within a page are isolated at the same
  * time, free page accounting can go wrong. For example, in the case of
- * MAX_ORDER = pageblock_order + 1, a MAX_ORDER page has two pagelbocks.
- * [         MAX_ORDER           ]
+ * MAX_PAGE_ORDER = pageblock_order + 1, a MAX_PAGE_ORDER page has two
+ * pagelbocks.
+ * [      MAX_PAGE_ORDER         ]
  * [  pageblock0  |  pageblock1  ]
  * When either pageblock is isolated, if it is a free page, the page is not
  * split into separate migratetype lists, which is supposed to; if it is an
@@ -451,7 +452,7 @@ static int isolate_single_pageblock(unsigned long boundary_pfn, int flags,
                                 * the free page to the right migratetype list.
                                 *
                                 * head_pfn is not used here as a hugetlb page order
-                                * can be bigger than MAX_ORDER, but after it is
+                                * can be bigger than MAX_PAGE_ORDER, but after it is
                                 * freed, the free page order is not. Use pfn within
                                 * the range to find the head of the free page.
                                 */
@@ -459,7 +460,7 @@ static int isolate_single_pageblock(unsigned long boundary_pfn, int flags,
                                outer_pfn = pfn;
                                while (!PageBuddy(pfn_to_page(outer_pfn))) {
                                        /* stop if we cannot find the free page */
-                                       if (++order > MAX_ORDER)
+                                       if (++order > MAX_PAGE_ORDER)
                                                goto failed;
                                        outer_pfn &= ~0UL << order;
                                }
@@ -660,8 +661,8 @@ int test_pages_isolated(unsigned long start_pfn, unsigned long end_pfn,
        int ret;
 
        /*
-        * Note: pageblock_nr_pages != MAX_ORDER. Then, chunks of free pages
-        * are not aligned to pageblock_nr_pages.
+        * Note: pageblock_nr_pages != MAX_PAGE_ORDER. Then, chunks of free
+        * pages are not aligned to pageblock_nr_pages.
         * Then we just check migratetype first.
         */
        for (pfn = start_pfn; pfn < end_pfn; pfn += pageblock_nr_pages) {
index 040dbf26a9865a2f946ffaddc34c503972769a86..5634e5d890f881b083e10ff514c4ca50a7287a15 100644 (file)
@@ -320,7 +320,7 @@ void pagetypeinfo_showmixedcount_print(struct seq_file *m,
                                unsigned long freepage_order;
 
                                freepage_order = buddy_order_unsafe(page);
-                               if (freepage_order <= MAX_ORDER)
+                               if (freepage_order <= MAX_PAGE_ORDER)
                                        pfn += (1UL << freepage_order) - 1;
                                continue;
                        }
@@ -555,7 +555,7 @@ read_page_owner(struct file *file, char __user *buf, size_t count, loff_t *ppos)
                if (PageBuddy(page)) {
                        unsigned long freepage_order = buddy_order_unsafe(page);
 
-                       if (freepage_order <= MAX_ORDER)
+                       if (freepage_order <= MAX_PAGE_ORDER)
                                pfn += (1UL << freepage_order) - 1;
                        continue;
                }
@@ -663,7 +663,7 @@ static void init_pages_in_zone(pg_data_t *pgdat, struct zone *zone)
                        if (PageBuddy(page)) {
                                unsigned long order = buddy_order_unsafe(page);
 
-                               if (order > 0 && order <= MAX_ORDER)
+                               if (order > 0 && order <= MAX_PAGE_ORDER)
                                        pfn += (1UL << order) - 1;
                                continue;
                        }
index 66369cc5279bf419f3180c44b219f16677929255..e4c428e61d8c1765ae00ee22818cfadfd27f324c 100644 (file)
@@ -20,7 +20,7 @@ static int page_order_update_notify(const char *val, const struct kernel_param *
         * If param is set beyond this limit, order is set to default
         * pageblock_order value
         */
-       return  param_set_uint_minmax(val, kp, 0, MAX_ORDER);
+       return  param_set_uint_minmax(val, kp, 0, MAX_PAGE_ORDER);
 }
 
 static const struct kernel_param_ops page_reporting_param_ops = {
@@ -370,7 +370,7 @@ int page_reporting_register(struct page_reporting_dev_info *prdev)
         */
 
        if (page_reporting_order == -1) {
-               if (prdev->order > 0 && prdev->order <= MAX_ORDER)
+               if (prdev->order > 0 && prdev->order <= MAX_PAGE_ORDER)
                        page_reporting_order = prdev->order;
                else
                        page_reporting_order = pageblock_order;
index a6bdf54f96f17ca08a56b8030d7b8f9c906d3782..61bbcddeeee67346a514421672a59bd02b6b86c3 100644 (file)
@@ -4,7 +4,7 @@
 #define _MM_SHUFFLE_H
 #include <linux/jump_label.h>
 
-#define SHUFFLE_ORDER MAX_ORDER
+#define SHUFFLE_ORDER MAX_PAGE_ORDER
 
 #ifdef CONFIG_SHUFFLE_PAGE_ALLOCATOR
 DECLARE_STATIC_KEY_FALSE(page_alloc_shuffle_key);
index 773c79e153f32cfcbf638f2d3b887ee0c3e5f1fd..073cae923d56c71517f60abf1ed0aa7778858d2e 100644 (file)
--- a/mm/slab.c
+++ b/mm/slab.c
@@ -465,7 +465,7 @@ static int __init slab_max_order_setup(char *str)
 {
        get_option(&str, &slab_max_order);
        slab_max_order = slab_max_order < 0 ? 0 :
-                               min(slab_max_order, MAX_ORDER);
+                               min(slab_max_order, MAX_PAGE_ORDER);
        slab_max_order_set = true;
 
        return 1;
index a5420be89c8c459c50496b10f5b933f9d333490d..ba162e661e2e67d19d6bc0e8d903d5d4b4e981ac 100644 (file)
--- a/mm/slub.c
+++ b/mm/slub.c
@@ -4194,7 +4194,7 @@ static inline int calculate_order(unsigned int size)
         * Doh this slab cannot be placed using slub_max_order.
         */
        order = get_order(size);
-       if (order <= MAX_ORDER)
+       if (order <= MAX_PAGE_ORDER)
                return order;
        return -ENOSYS;
 }
@@ -4722,7 +4722,7 @@ __setup("slub_min_order=", setup_slub_min_order);
 static int __init setup_slub_max_order(char *str)
 {
        get_option(&str, (int *)&slub_max_order);
-       slub_max_order = min_t(unsigned int, slub_max_order, MAX_ORDER);
+       slub_max_order = min_t(unsigned int, slub_max_order, MAX_PAGE_ORDER);
 
        if (slub_min_order > slub_max_order)
                slub_min_order = slub_max_order;
index 600ed3cbf7cb3e0c825f2805fc23b856873bde26..68f0abbb8e59991ce189eb53b8bb82d5bba3967d 100644 (file)
@@ -6415,7 +6415,7 @@ unsigned long try_to_free_pages(struct zonelist *zonelist, int order,
         * scan_control uses s8 fields for order, priority, and reclaim_idx.
         * Confirm they are large enough for max values.
         */
-       BUILD_BUG_ON(MAX_ORDER >= S8_MAX);
+       BUILD_BUG_ON(MAX_PAGE_ORDER >= S8_MAX);
        BUILD_BUG_ON(DEF_PRIORITY > S8_MAX);
        BUILD_BUG_ON(MAX_NR_ZONES > S8_MAX);
 
index 03ead31c46a01af32fa43335b7e36cb0f182e113..db79935e4a5437b8cf329a32b9772f1c26d745df 100644 (file)
@@ -1092,7 +1092,7 @@ static int __fragmentation_index(unsigned int order, struct contig_page_info *in
 {
        unsigned long requested = 1UL << order;
 
-       if (WARN_ON_ONCE(order > MAX_ORDER))
+       if (WARN_ON_ONCE(order > MAX_PAGE_ORDER))
                return 0;
 
        if (!info->free_blocks_total)
index 89981dbe46c946a2ef42d528959d8a53749fc98a..97704a9e84c701f55750ecd51fa872a726a826ac 100644 (file)
@@ -844,7 +844,7 @@ long smc_ib_setup_per_ibdev(struct smc_ib_device *smcibdev)
                goto out;
        /* the calculated number of cq entries fits to mlx5 cq allocation */
        cqe_size_order = cache_line_size() == 128 ? 7 : 6;
-       smc_order = MAX_ORDER - cqe_size_order;
+       smc_order = MAX_PAGE_ORDER - cqe_size_order;
        if (SMC_MAX_CQE + 2 > (0x00000001 << smc_order) * PAGE_SIZE)
                cqattr.cqe = (0x00000001 << smc_order) * PAGE_SIZE - 2;
        smcibdev->roce_cq_send = ib_create_cq(smcibdev->ibdev,
index 51ad29940f05ca4566c88a4980ab7530cb57644e..f3738b2c8bcd92a29725ee08f7e43f4b525027e3 100644 (file)
@@ -38,7 +38,7 @@ static int param_set_bufsize(const char *val, const struct kernel_param *kp)
 
        size = memparse(val, NULL);
        order = get_order(size);
-       if (order > MAX_ORDER)
+       if (order > MAX_PAGE_ORDER)
                return -EINVAL;
        ima_maxorder = order;
        ima_bufsize = PAGE_SIZE << order;
index 4c90cc176f813db90485dc1e0da6f79afab69709..2109690b0d5fd5b122ac498a8bafd91e82faa4ac 100644 (file)
@@ -683,7 +683,7 @@ Buffer handling
 ~~~~~~~~~~~~~~~
 
 There may be buffer limitations (i.e. single ToPa entry) which means that actual
-buffer sizes are limited to powers of 2 up to 4MiB (MAX_ORDER).  In order to
+buffer sizes are limited to powers of 2 up to 4MiB (MAX_PAGE_ORDER).  In order to
 provide other sizes, and in particular an arbitrarily large size, multiple
 buffers are logically concatenated.  However an interrupt must be used to switch
 between buffers.  That has two potential problems:
index 134f8eab0768fa1359ba508cf6e1cba24ab44286..71546e15bdd387a2bcc3381c3692f25975a9f16a 100644 (file)
@@ -17,10 +17,10 @@ enum zone_type {
 };
 
 #define MAX_NR_ZONES __MAX_NR_ZONES
-#define MAX_ORDER 10
-#define MAX_ORDER_NR_PAGES (1 << MAX_ORDER)
+#define MAX_PAGE_ORDER 10
+#define MAX_ORDER_NR_PAGES (1 << MAX_PAGE_ORDER)
 
-#define pageblock_order                MAX_ORDER
+#define pageblock_order                MAX_PAGE_ORDER
 #define pageblock_nr_pages     BIT(pageblock_order)
 #define pageblock_align(pfn)   ALIGN((pfn), pageblock_nr_pages)
 #define pageblock_start_pfn(pfn)       ALIGN_DOWN((pfn), pageblock_nr_pages)
index 16ed4dfa7359839ad55d8115350d42a3603e49b8..622987f12c89a341ea7c85421ff80b3c0c52fac2 100644 (file)
@@ -3,7 +3,8 @@
 
    Before running this huge pages for each huge page size must have been
    reserved.
-   For large pages beyond MAX_ORDER (like 1GB on x86) boot options must be used.
+   For large pages beyond MAX_PAGE_ORDER (like 1GB on x86) boot options must
+   be used.
    Also shmmax must be increased.
    And you need to run as root to work around some weird permissions in shm.
    And nothing using huge pages should run in parallel.