return h - hstates;
 }
 
-extern int dissolve_free_huge_page(struct page *page);
+int dissolve_free_hugetlb_folio(struct folio *folio);
 extern int dissolve_free_huge_pages(unsigned long start_pfn,
                                    unsigned long end_pfn);
 
        return 0;
 }
 
-static inline int dissolve_free_huge_page(struct page *page)
+static inline int dissolve_free_hugetlb_folio(struct folio *folio)
 {
        return 0;
 }
 
 }
 
 /*
- * Dissolve a given free hugepage into free buddy pages. This function does
- * nothing for in-use hugepages and non-hugepages.
+ * Dissolve a given free hugetlb folio into free buddy pages. This function
+ * does nothing for in-use hugetlb folios and non-hugetlb folios.
  * This function returns values like below:
  *
  *  -ENOMEM: failed to allocate vmemmap pages to free the freed hugepages
  *       0:  successfully dissolved free hugepages or the page is not a
  *           hugepage (considered as already dissolved)
  */
-int dissolve_free_huge_page(struct page *page)
+int dissolve_free_hugetlb_folio(struct folio *folio)
 {
        int rc = -EBUSY;
-       struct folio *folio = page_folio(page);
 
 retry:
        /* Not to disrupt normal path by vainly holding hugetlb_lock */
  * make specified memory blocks removable from the system.
  * Note that this will dissolve a free gigantic hugepage completely, if any
  * part of it lies within the given range.
- * Also note that if dissolve_free_huge_page() returns with an error, all
- * free hugepages that were dissolved before that error are lost.
+ * Also note that if dissolve_free_hugetlb_folio() returns with an error, all
+ * free hugetlb folios that were dissolved before that error are lost.
  */
 int dissolve_free_huge_pages(unsigned long start_pfn, unsigned long end_pfn)
 {
        unsigned long pfn;
-       struct page *page;
+       struct folio *folio;
        int rc = 0;
        unsigned int order;
        struct hstate *h;
                order = min(order, huge_page_order(h));
 
        for (pfn = start_pfn; pfn < end_pfn; pfn += 1 << order) {
-               page = pfn_to_page(pfn);
-               rc = dissolve_free_huge_page(page);
+               folio = pfn_folio(pfn);
+               rc = dissolve_free_hugetlb_folio(folio);
                if (rc)
                        break;
        }
 
 
        /*
         * zone_pcp_disable() can't be used here. It will
-        * hold pcp_batch_high_lock and dissolve_free_huge_page() might hold
+        * hold pcp_batch_high_lock and dissolve_free_hugetlb_folio() might hold
         * cpu_hotplug_lock via static_key_slow_dec() when hugetlb vmemmap
         * optimization is enabled. This will break current lock dependency
         * chain and leads to deadlock.
         * but nothing guarantees that those pages do not get back to a PCP
         * queue if we need to refill those.
         */
-       ret = dissolve_free_huge_page(page);
+       ret = dissolve_free_hugetlb_folio(page_folio(page));
        if (!ret) {
                drain_all_pages(page_zone(page));
                ret = take_page_off_buddy(page);
 {
        if (hugepage_or_freepage) {
                /*
-                * Doing this check for free pages is also fine since dissolve_free_huge_page
-                * returns 0 for non-hugetlb pages as well.
+                * Doing this check for free pages is also fine since
+                * dissolve_free_hugetlb_folio() returns 0 for non-hugetlb folios as well.
                 */
                if (__page_handle_poison(page) <= 0)
                        /*