]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
mm: fix spelling mistakes
authorZhen Lei <thunder.leizhen@huawei.com>
Wed, 2 Jun 2021 03:53:03 +0000 (13:53 +1000)
committerStephen Rothwell <sfr@canb.auug.org.au>
Wed, 2 Jun 2021 03:53:03 +0000 (13:53 +1000)
Fix some spelling mistakes in comments:
each having differents usage ==> each has a different usage
statments ==> statements
adresses ==> addresses
aggresive ==> aggressive
datas ==> data
posion ==> poison
higer ==> higher
precisly ==> precisely
wont ==> won't
We moves tha ==> We move the
endianess ==> endianness

Link: https://lkml.kernel.org/r/20210519065853.7723-2-thunder.leizhen@huawei.com
Signed-off-by: Zhen Lei <thunder.leizhen@huawei.com>
Reviewed-by: Souptick Joarder <jrdr.linux@gmail.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Stephen Rothwell <sfr@canb.auug.org.au>
include/linux/memremap.h
include/linux/mm_types.h
include/linux/mmzone.h
mm/memory-failure.c
mm/memory_hotplug.c
mm/page_alloc.c
mm/swapfile.c

index b46f63dcaed310157085fd9b3c2fab39762f5752..119f130ef8f1038bebac03231064ee0b6502cc73 100644 (file)
@@ -26,7 +26,7 @@ struct vmem_altmap {
 };
 
 /*
- * Specialize ZONE_DEVICE memory into multiple types each having differents
+ * Specialize ZONE_DEVICE memory into multiple types each has a different
  * usage.
  *
  * MEMORY_DEVICE_PRIVATE:
index a5869050ad28906870ab609d81c50092102b6ca8..38a516ec7d98c9f73f36cece2c946d33d7f0c633 100644 (file)
@@ -399,7 +399,7 @@ struct mm_struct {
                unsigned long mmap_base;        /* base of mmap area */
                unsigned long mmap_legacy_base; /* base of mmap area in bottom-up allocations */
 #ifdef CONFIG_HAVE_ARCH_COMPAT_MMAP_BASES
-               /* Base adresses for compatible mmap() */
+               /* Base addresses for compatible mmap() */
                unsigned long mmap_compat_base;
                unsigned long mmap_compat_legacy_base;
 #endif
index 11f6499165aa55ff433351570677009f5a420d39..7b1a6482c7bf5952e56f3fd1cdc6d633d49707f7 100644 (file)
@@ -114,7 +114,7 @@ static inline bool free_area_empty(struct free_area *area, int migratetype)
 struct pglist_data;
 
 /*
- * Add a wild amount of padding here to ensure datas fall into separate
+ * Add a wild amount of padding here to ensure data fall into separate
  * cachelines.  There are very few zone structures in the machine, so space
  * consumption is not a concern here.
  */
index 8a3ce8dad2bacd75dc3ccf3e00dfaa55984d318d..57501c406f1d61e0b0e262c702d794bf5ebffe5e 100644 (file)
@@ -1277,7 +1277,7 @@ static bool hwpoison_user_mappings(struct page *p, unsigned long pfn,
                         * could potentially call huge_pmd_unshare.  Because of
                         * this, take semaphore in write mode here and set
                         * TTU_RMAP_LOCKED to indicate we have taken the lock
-                        * at this higer level.
+                        * at this higher level.
                         */
                        mapping = hugetlb_page_mapping_lock_write(hpage);
                        if (mapping) {
index e136013128b0920302811a844c7db4e69f0ab58f..f27d386db3d10665aa3097412ac99e40d97374a7 100644 (file)
@@ -783,7 +783,7 @@ int __ref online_pages(unsigned long pfn, unsigned long nr_pages, struct zone *z
 
        /*
         * {on,off}lining is constrained to full memory sections (or more
-        * precisly to memory blocks from the user space POV).
+        * precisely to memory blocks from the user space POV).
         * memmap_on_memory is an exception because it reserves initial part
         * of the physical memory space for vmemmaps. That space is pageblock
         * aligned.
@@ -1580,7 +1580,7 @@ int __ref offline_pages(unsigned long start_pfn, unsigned long nr_pages)
 
        /*
         * {on,off}lining is constrained to full memory sections (or more
-        * precisly to memory blocks from the user space POV).
+        * precisely to memory blocks from the user space POV).
         * memmap_on_memory is an exception because it reserves initial part
         * of the physical memory space for vmemmaps. That space is pageblock
         * aligned.
index 032c5b4ff020a09c37d9b58709b6bbe42812747b..f60a2e7e3f4163f8ec3622ee7b5f77185761e17a 100644 (file)
@@ -3128,7 +3128,7 @@ static void __drain_all_pages(struct zone *zone, bool force_all_cpus)
        int cpu;
 
        /*
-        * Allocate in the BSS so we wont require allocation in
+        * Allocate in the BSS so we won't require allocation in
         * direct reclaim path for CONFIG_CPUMASK_OFFSTACK=y
         */
        static cpumask_t cpus_with_pcps;
index 24b61f44a8cb41a4de0db7ab0947271f80dde35d..6212bc03360215990b8423b27d220ecd89cd733e 100644 (file)
@@ -2967,7 +2967,7 @@ static unsigned long read_swap_header(struct swap_info_struct *p,
                return 0;
        }
 
-       /* swap partition endianess hack... */
+       /* swap partition endianness hack... */
        if (swab32(swap_header->info.version) == 1) {
                swab32s(&swap_header->info.version);
                swab32s(&swap_header->info.last_page);