if (folio_test_writeback(folio) || folio_test_dirty(folio))
                return false;
 
-       return try_release_extent_buffer(&folio->page);
+       return try_release_extent_buffer(folio);
 }
 
 static void btree_invalidate_folio(struct folio *folio, size_t offset,
 
 
 }
 
-int try_release_extent_buffer(struct page *page)
+int try_release_extent_buffer(struct folio *folio)
 {
-       struct folio *folio = page_folio(page);
        struct extent_buffer *eb;
 
-       if (page_to_fs_info(page)->nodesize < PAGE_SIZE)
-               return try_release_subpage_extent_buffer(page_folio(page));
+       if (folio_to_fs_info(folio)->nodesize < PAGE_SIZE)
+               return try_release_subpage_extent_buffer(folio);
 
        /*
         * We need to make sure nobody is changing folio private, as we rely on
         * folio private as the pointer to extent buffer.
         */
-       spin_lock(&page->mapping->i_private_lock);
+       spin_lock(&folio->mapping->i_private_lock);
        if (!folio_test_private(folio)) {
-               spin_unlock(&page->mapping->i_private_lock);
+               spin_unlock(&folio->mapping->i_private_lock);
                return 1;
        }
 
        spin_lock(&eb->refs_lock);
        if (atomic_read(&eb->refs) != 1 || extent_buffer_under_io(eb)) {
                spin_unlock(&eb->refs_lock);
-               spin_unlock(&page->mapping->i_private_lock);
+               spin_unlock(&folio->mapping->i_private_lock);
                return 0;
        }
-       spin_unlock(&page->mapping->i_private_lock);
+       spin_unlock(&folio->mapping->i_private_lock);
 
        /*
         * If tree ref isn't set then we know the ref on this eb is a real ref,
 
 }
 
 bool try_release_extent_mapping(struct page *page, gfp_t mask);
-int try_release_extent_buffer(struct page *page);
+int try_release_extent_buffer(struct folio *folio);
 
 int btrfs_read_folio(struct file *file, struct folio *folio);
 void extent_write_locked_range(struct inode *inode, const struct folio *locked_folio,