.swap_deactivate = f2fs_swap_deactivate,
 };
 
-void f2fs_clear_page_cache_dirty_tag(struct page *page)
+void f2fs_clear_page_cache_dirty_tag(struct folio *folio)
 {
-       struct folio *folio = page_folio(page);
        struct address_space *mapping = folio->mapping;
        unsigned long flags;
 
 
 
        if (bit_pos == NR_DENTRY_IN_BLOCK &&
                !f2fs_truncate_hole(dir, page->index, page->index + 1)) {
-               f2fs_clear_page_cache_dirty_tag(page);
+               f2fs_clear_page_cache_dirty_tag(page_folio(page));
                clear_page_dirty_for_io(page);
                ClearPageUptodate(page);
                clear_page_private_all(page);
 
 void f2fs_invalidate_folio(struct folio *folio, size_t offset, size_t length);
 bool f2fs_release_folio(struct folio *folio, gfp_t wait);
 bool f2fs_overwrite_io(struct inode *inode, loff_t pos, size_t len);
-void f2fs_clear_page_cache_dirty_tag(struct page *page);
+void f2fs_clear_page_cache_dirty_tag(struct folio *folio);
 int f2fs_init_post_read_processing(void);
 void f2fs_destroy_post_read_processing(void);
 int f2fs_init_post_read_wq(struct f2fs_sb_info *sbi);
 
                         page, 0, MAX_INLINE_DATA(inode));
        set_page_dirty(ipage);
 
-       f2fs_clear_page_cache_dirty_tag(page);
+       f2fs_clear_page_cache_dirty_tag(page_folio(page));
 
        set_inode_flag(inode, FI_APPEND_WRITE);
        set_inode_flag(inode, FI_DATA_EXIST);
 
 static void clear_node_page_dirty(struct page *page)
 {
        if (PageDirty(page)) {
-               f2fs_clear_page_cache_dirty_tag(page);
+               f2fs_clear_page_cache_dirty_tag(page_folio(page));
                clear_page_dirty_for_io(page);
                dec_page_count(F2FS_P_SB(page), F2FS_DIRTY_NODES);
        }