static int me_swapcache_clean(struct page_state *ps, struct page *p)
 {
+       struct folio *folio = page_folio(p);
        int ret;
 
-       delete_from_swap_cache(p);
+       delete_from_swap_cache(folio);
 
        ret = delete_from_lru_cache(p) ? MF_FAILED : MF_RECOVERED;
-       unlock_page(p);
+       folio_unlock(folio);
 
        if (has_extra_refcount(ps, p, false))
                ret = MF_FAILED;
 
                return;
 
        folio_wait_writeback(folio);
-       delete_from_swap_cache(&folio->page);
+       delete_from_swap_cache(folio);
        spin_lock_irq(&info->lock);
        /*
         * Don't treat swapin error folio as alloced. Otherwise inode->i_blocks won't
        if (sgp == SGP_WRITE)
                folio_mark_accessed(folio);
 
-       delete_from_swap_cache(&folio->page);
+       delete_from_swap_cache(folio);
        folio_mark_dirty(folio);
        swap_free(swap);
 
 
                      gfp_t gfp, void **shadowp);
 void __delete_from_swap_cache(struct page *page,
                              swp_entry_t entry, void *shadow);
-void delete_from_swap_cache(struct page *page);
+void delete_from_swap_cache(struct folio *folio);
 void clear_shadow_from_swap_cache(int type, unsigned long begin,
                                  unsigned long end);
 void free_swap_cache(struct page *page);
 {
 }
 
-static inline void delete_from_swap_cache(struct page *page)
+static inline void delete_from_swap_cache(struct folio *folio)
 {
 }
 
 
 }
 
 /*
- * This must be called only on pages that have
+ * This must be called only on folios that have
  * been verified to be in the swap cache and locked.
- * It will never put the page into the free list,
- * the caller has a reference on the page.
+ * It will never put the folio into the free list,
+ * the caller has a reference on the folio.
  */
-void delete_from_swap_cache(struct page *page)
+void delete_from_swap_cache(struct folio *folio)
 {
-       swp_entry_t entry = { .val = page_private(page) };
+       swp_entry_t entry = folio_swap_entry(folio);
        struct address_space *address_space = swap_address_space(entry);
 
        xa_lock_irq(&address_space->i_pages);
-       __delete_from_swap_cache(page, entry, NULL);
+       __delete_from_swap_cache(&folio->page, entry, NULL);
        xa_unlock_irq(&address_space->i_pages);
 
-       put_swap_page(page, entry);
-       page_ref_sub(page, thp_nr_pages(page));
+       put_swap_page(&folio->page, entry);
+       folio_ref_sub(folio, folio_nr_pages(folio));
 }
 
 void clear_shadow_from_swap_cache(int type, unsigned long begin,
 
        if (pm_suspended_storage())
                return 0;
 
-       delete_from_swap_cache(&folio->page);
+       delete_from_swap_cache(folio);
        folio_set_dirty(folio);
        return 1;
 }