]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
Revert "mm/memory: add any_dirty optional pointer to folio_pte_batch()"
authorLiam R. Howlett <Liam.Howlett@oracle.com>
Tue, 4 Jun 2024 16:00:47 +0000 (12:00 -0400)
committerLiam R. Howlett <Liam.Howlett@oracle.com>
Tue, 4 Jun 2024 16:31:57 +0000 (12:31 -0400)
This reverts commit 96ebdb032096f67e37b582cd2ea2558c402f878b.

mm/internal.h
mm/madvise.c
mm/memory.c

index b2c75b12014e7fcec9cf948deae09827d37d42ba..bd807e6021dea2c1a7046ab46a5fe24eec09b54c 100644 (file)
@@ -134,8 +134,6 @@ static inline pte_t __pte_batch_clear_ignored(pte_t pte, fpb_t flags)
  *               first one is writable.
  * @any_young: Optional pointer to indicate whether any entry except the
  *               first one is young.
- * @any_dirty: Optional pointer to indicate whether any entry except the
- *               first one is dirty.
  *
  * Detect a PTE batch: consecutive (present) PTEs that map consecutive
  * pages of the same large folio.
@@ -151,20 +149,18 @@ static inline pte_t __pte_batch_clear_ignored(pte_t pte, fpb_t flags)
  */
 static inline int folio_pte_batch(struct folio *folio, unsigned long addr,
                pte_t *start_ptep, pte_t pte, int max_nr, fpb_t flags,
-               bool *any_writable, bool *any_young, bool *any_dirty)
+               bool *any_writable, bool *any_young)
 {
        unsigned long folio_end_pfn = folio_pfn(folio) + folio_nr_pages(folio);
        const pte_t *end_ptep = start_ptep + max_nr;
        pte_t expected_pte, *ptep;
-       bool writable, young, dirty;
+       bool writable, young;
        int nr;
 
        if (any_writable)
                *any_writable = false;
        if (any_young)
                *any_young = false;
-       if (any_dirty)
-               *any_dirty = false;
 
        VM_WARN_ON_FOLIO(!pte_present(pte), folio);
        VM_WARN_ON_FOLIO(!folio_test_large(folio) || max_nr < 1, folio);
@@ -180,8 +176,6 @@ static inline int folio_pte_batch(struct folio *folio, unsigned long addr,
                        writable = !!pte_write(pte);
                if (any_young)
                        young = !!pte_young(pte);
-               if (any_dirty)
-                       dirty = !!pte_dirty(pte);
                pte = __pte_batch_clear_ignored(pte, flags);
 
                if (!pte_same(pte, expected_pte))
@@ -199,8 +193,6 @@ static inline int folio_pte_batch(struct folio *folio, unsigned long addr,
                        *any_writable |= writable;
                if (any_young)
                        *any_young |= young;
-               if (any_dirty)
-                       *any_dirty |= dirty;
 
                nr = pte_batch_hint(ptep, pte);
                expected_pte = pte_advance_pfn(expected_pte, nr);
index 284abcf07eb4396e909d9d36b7521f092737109b..96869e59b12bbd751f496450847b5164f36b9b55 100644 (file)
@@ -321,18 +321,6 @@ static inline bool can_do_file_pageout(struct vm_area_struct *vma)
               file_permission(vma->vm_file, MAY_WRITE) == 0;
 }
 
-static inline int madvise_folio_pte_batch(unsigned long addr, unsigned long end,
-                                         struct folio *folio, pte_t *ptep,
-                                         pte_t pte, bool *any_young,
-                                         bool *any_dirty)
-{
-       const fpb_t fpb_flags = FPB_IGNORE_DIRTY | FPB_IGNORE_SOFT_DIRTY;
-       int max_nr = (end - addr) / PAGE_SIZE;
-
-       return folio_pte_batch(folio, addr, ptep, pte, max_nr, fpb_flags, NULL,
-                              any_young, any_dirty);
-}
-
 static int madvise_cold_or_pageout_pte_range(pmd_t *pmd,
                                unsigned long addr, unsigned long end,
                                struct mm_walk *walk)
@@ -468,10 +456,13 @@ restart:
                 * next pte in the range.
                 */
                if (folio_test_large(folio)) {
+                       const fpb_t fpb_flags = FPB_IGNORE_DIRTY |
+                                               FPB_IGNORE_SOFT_DIRTY;
+                       int max_nr = (end - addr) / PAGE_SIZE;
                        bool any_young;
 
-                       nr = madvise_folio_pte_batch(addr, end, folio, pte,
-                                                    ptent, &any_young, NULL);
+                       nr = folio_pte_batch(folio, addr, pte, ptent, max_nr,
+                                            fpb_flags, NULL, &any_young);
                        if (any_young)
                                ptent = pte_mkyoung(ptent);
 
index 0f47a533014e43efd053a7d8301615eda35d881b..45f90f1997fbf261c0bde4d324f957fed6e2ce0b 100644 (file)
@@ -991,7 +991,7 @@ copy_present_ptes(struct vm_area_struct *dst_vma, struct vm_area_struct *src_vma
                        flags |= FPB_IGNORE_SOFT_DIRTY;
 
                nr = folio_pte_batch(folio, addr, src_pte, pte, max_nr, flags,
-                                    &any_writable, NULL, NULL);
+                                    &any_writable, NULL);
                folio_ref_add(folio, nr);
                if (folio_test_anon(folio)) {
                        if (unlikely(folio_try_dup_anon_rmap_ptes(folio, page,
@@ -1560,7 +1560,7 @@ static inline int zap_present_ptes(struct mmu_gather *tlb,
         */
        if (unlikely(folio_test_large(folio) && max_nr != 1)) {
                nr = folio_pte_batch(folio, addr, pte, ptent, max_nr, fpb_flags,
-                                    NULL, NULL, NULL);
+                                    NULL, NULL);
 
                zap_present_folio_ptes(tlb, vma, folio, page, pte, ptent, nr,
                                       addr, details, rss, force_flush,