]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
mm, swap: wrap swap cache replacement with a helper
authorKairui Song <kasong@tencent.com>
Wed, 10 Sep 2025 16:08:28 +0000 (00:08 +0800)
committerAndrew Morton <akpm@linux-foundation.org>
Fri, 12 Sep 2025 00:25:55 +0000 (17:25 -0700)
There are currently three swap cache users that are trying to replace an
existing folio with a new one: huge memory splitting, migration, and shmem
replacement.  What they are doing is quite similar.

Introduce a common helper for this.  In later commits, this can be easily
switched to use the swap table by updating this helper.

The newly added helper also makes the swap cache API better defined, and
make debugging easier by adding a few more debug checks.

Migration and shmem replace are meant to clone the folio, including
content, swap entry value, and flags.  And splitting will adjust each sub
folio's swap entry according to order, which could be non-uniform in the
future.  So document it clearly that it's the caller's responsibility to
set up the new folio's swap entries and flags before calling the helper.
The helper will just follow the new folio's entry value.

This also prepares for replacing high-order folios in the swap cache.
Currently, only splitting to order 0 is allowed for swap cache folios.
Using the new helper, we can handle high-order folio splitting better.

Link: https://lkml.kernel.org/r/20250910160833.3464-11-ryncsn@gmail.com
Signed-off-by: Kairui Song <kasong@tencent.com>
Reviewed-by: Baolin Wang <baolin.wang@linux.alibaba.com>
Cc: Baoquan He <bhe@redhat.com>
Cc: Barry Song <baohua@kernel.org>
Cc: Chris Li <chrisl@kernel.org>
Cc: David Hildenbrand <david@redhat.com>
Cc: "Huang, Ying" <ying.huang@linux.alibaba.com>
Cc: Hugh Dickins <hughd@google.com>
Cc: Johannes Weiner <hannes@cmpxchg.org>
Cc: Kemeng Shi <shikemeng@huaweicloud.com>
Cc: Lorenzo Stoakes <lorenzo.stoakes@oracle.com>
Cc: Matthew Wilcox (Oracle) <willy@infradead.org>
Cc: Nhat Pham <nphamcs@gmail.com>
Cc: Yosry Ahmed <yosryahmed@google.com>
Cc: Zi Yan <ziy@nvidia.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
mm/huge_memory.c
mm/migrate.c
mm/shmem.c
mm/swap.h
mm/swap_state.c

index 26cedfcd74189444da3075f1b61357b583b55162..4c66e358685b872500d20416be1e3a20ef02eed3 100644 (file)
@@ -3798,9 +3798,7 @@ static int __folio_split(struct folio *folio, unsigned int new_order,
                         * NOTE: shmem in swap cache is not supported yet.
                         */
                        if (swap_cache) {
-                               __xa_store(&swap_cache->i_pages,
-                                          swap_cache_index(new_folio->swap),
-                                          new_folio, 0);
+                               __swap_cache_replace_folio(folio, new_folio);
                                continue;
                        }
 
index 8e435a078fc3d43abf64ba80c4c0e7712837f88f..c69cc13db6925cfe35408b562214c9ab61686194 100644 (file)
@@ -566,7 +566,6 @@ static int __folio_migrate_mapping(struct address_space *mapping,
        struct zone *oldzone, *newzone;
        int dirty;
        long nr = folio_nr_pages(folio);
-       long entries, i;
 
        if (!mapping) {
                /* Take off deferred split queue while frozen and memcg set */
@@ -615,9 +614,6 @@ static int __folio_migrate_mapping(struct address_space *mapping,
        if (folio_test_swapcache(folio)) {
                folio_set_swapcache(newfolio);
                newfolio->private = folio_get_private(folio);
-               entries = nr;
-       } else {
-               entries = 1;
        }
 
        /* Move dirty while folio refs frozen and newfolio not yet exposed */
@@ -627,11 +623,10 @@ static int __folio_migrate_mapping(struct address_space *mapping,
                folio_set_dirty(newfolio);
        }
 
-       /* Swap cache still stores N entries instead of a high-order entry */
-       for (i = 0; i < entries; i++) {
+       if (folio_test_swapcache(folio))
+               __swap_cache_replace_folio(folio, newfolio);
+       else
                xas_store(&xas, newfolio);
-               xas_next(&xas);
-       }
 
        /*
         * Drop cache reference from old folio by unfreezing
index 5f395fab489cda8c9e5c7ef3562fc84a1a337806..8930780325da530e467a7c1eb46341bef95633c1 100644 (file)
@@ -2086,10 +2086,8 @@ static int shmem_replace_folio(struct folio **foliop, gfp_t gfp,
        struct folio *new, *old = *foliop;
        swp_entry_t entry = old->swap;
        struct address_space *swap_mapping = swap_address_space(entry);
-       pgoff_t swap_index = swap_cache_index(entry);
-       XA_STATE(xas, &swap_mapping->i_pages, swap_index);
        int nr_pages = folio_nr_pages(old);
-       int error = 0, i;
+       int error = 0;
 
        /*
         * We have arrived here because our zones are constrained, so don't
@@ -2118,12 +2116,8 @@ static int shmem_replace_folio(struct folio **foliop, gfp_t gfp,
        new->swap = entry;
        folio_set_swapcache(new);
 
-       /* Swap cache still stores N entries instead of a high-order entry */
        xa_lock_irq(&swap_mapping->i_pages);
-       for (i = 0; i < nr_pages; i++) {
-               WARN_ON_ONCE(xas_store(&xas, new));
-               xas_next(&xas);
-       }
+       __swap_cache_replace_folio(old, new);
        xa_unlock_irq(&swap_mapping->i_pages);
 
        mem_cgroup_replace_folio(old, new);
index 6c4acb549bece412e0396f3ab546a3e5bb93951d..fe579c81c6c48267f33685ff2d64ce776a0502dd 100644 (file)
--- a/mm/swap.h
+++ b/mm/swap.h
@@ -185,6 +185,7 @@ int swap_cache_add_folio(struct folio *folio, swp_entry_t entry,
 void swap_cache_del_folio(struct folio *folio);
 void __swap_cache_del_folio(struct folio *folio,
                            swp_entry_t entry, void *shadow);
+void __swap_cache_replace_folio(struct folio *old, struct folio *new);
 void swap_cache_clear_shadow(int type, unsigned long begin,
                             unsigned long end);
 
@@ -336,6 +337,10 @@ static inline void __swap_cache_del_folio(struct folio *folio, swp_entry_t entry
 {
 }
 
+static inline void __swap_cache_replace_folio(struct folio *old, struct folio *new)
+{
+}
+
 static inline unsigned int folio_swap_flags(struct folio *folio)
 {
        return 0;
index f3a32a06a950037dcb50ead0d9040d1fa178b69d..d1f5b8fa52fcb53cc47c54debd5fbe6374706996 100644 (file)
@@ -234,6 +234,39 @@ void swap_cache_del_folio(struct folio *folio)
        folio_ref_sub(folio, folio_nr_pages(folio));
 }
 
+/**
+ * __swap_cache_replace_folio - Replace a folio in the swap cache.
+ * @old: The old folio to be replaced.
+ * @new: The new folio.
+ *
+ * Replace an existing folio in the swap cache with a new folio. The
+ * caller is responsible for setting up the new folio's flag and swap
+ * entries. Replacement will take the new folio's swap entry value as
+ * the starting offset to override all slots covered by the new folio.
+ *
+ * Context: Caller must ensure both folios are locked, also lock the
+ * swap address_space that holds the old folio to avoid races.
+ */
+void __swap_cache_replace_folio(struct folio *old, struct folio *new)
+{
+       swp_entry_t entry = new->swap;
+       unsigned long nr_pages = folio_nr_pages(new);
+       unsigned long offset = swap_cache_index(entry);
+       unsigned long end = offset + nr_pages;
+
+       XA_STATE(xas, &swap_address_space(entry)->i_pages, offset);
+
+       VM_WARN_ON_ONCE(!folio_test_swapcache(old) || !folio_test_swapcache(new));
+       VM_WARN_ON_ONCE(!folio_test_locked(old) || !folio_test_locked(new));
+       VM_WARN_ON_ONCE(!entry.val);
+
+       /* Swap cache still stores N entries instead of a high-order entry */
+       do {
+               WARN_ON_ONCE(xas_store(&xas, new) != old);
+               xas_next(&xas);
+       } while (++offset < end);
+}
+
 /**
  * swap_cache_clear_shadow - Clears a set of shadows in the swap cache.
  * @type: Indicates the swap device.