This patch eliminates the propagation of recovery errors to the next mount.
Signed-off-by: Jaegeuk Kim <jaegeuk@kernel.org>
 static void do_checkpoint(struct f2fs_sb_info *sbi, bool is_umount)
 {
        struct f2fs_checkpoint *ckpt = F2FS_CKPT(sbi);
+       struct curseg_info *curseg = CURSEG_I(sbi, CURSEG_WARM_NODE);
        nid_t last_nid = 0;
        block_t start_blk;
        struct page *cp_page;
         * This avoids to conduct wrong roll-forward operations and uses
         * metapages, so should be called prior to sync_meta_pages below.
         */
-       discard_next_dnode(sbi);
+       discard_next_dnode(sbi, NEXT_FREE_BLKADDR(sbi, curseg));
 
        /* Flush all the NAT/SIT pages */
        while (get_pages(sbi, F2FS_DIRTY_META))
 
 void invalidate_blocks(struct f2fs_sb_info *, block_t);
 void refresh_sit_entry(struct f2fs_sb_info *, block_t, block_t);
 void clear_prefree_segments(struct f2fs_sb_info *);
-void discard_next_dnode(struct f2fs_sb_info *);
+void discard_next_dnode(struct f2fs_sb_info *, block_t);
 int npages_for_summary_flush(struct f2fs_sb_info *);
 void allocate_new_segments(struct f2fs_sb_info *);
 struct page *get_sum_page(struct f2fs_sb_info *, unsigned int);
 
 
 int recover_fsync_data(struct f2fs_sb_info *sbi)
 {
+       struct curseg_info *curseg = CURSEG_I(sbi, CURSEG_WARM_NODE);
        struct list_head inode_list;
+       block_t blkaddr;
        int err;
        bool need_writecp = false;
 
 
        /* step #1: find fsynced inode numbers */
        sbi->por_doing = true;
+
+       blkaddr = NEXT_FREE_BLKADDR(sbi, curseg);
+
        err = find_fsync_dnodes(sbi, &inode_list);
        if (err)
                goto out;
 out:
        destroy_fsync_dnodes(&inode_list);
        kmem_cache_destroy(fsync_entry_slab);
+
+       if (err) {
+               truncate_inode_pages_final(NODE_MAPPING(sbi));
+               truncate_inode_pages_final(META_MAPPING(sbi));
+       }
+
        sbi->por_doing = false;
-       if (!err && need_writecp)
+       if (err) {
+               discard_next_dnode(sbi, blkaddr);
+
+               /* Flush all the NAT/SIT pages */
+               while (get_pages(sbi, F2FS_DIRTY_META))
+                       sync_meta_pages(sbi, META, LONG_MAX);
+       } else if (need_writecp) {
                write_checkpoint(sbi, false);
+       }
        return err;
 }
 
        return blkdev_issue_discard(sbi->sb->s_bdev, start, len, GFP_NOFS, 0);
 }
 
-void discard_next_dnode(struct f2fs_sb_info *sbi)
+void discard_next_dnode(struct f2fs_sb_info *sbi, block_t blkaddr)
 {
-       struct curseg_info *curseg = CURSEG_I(sbi, CURSEG_WARM_NODE);
-       block_t blkaddr = NEXT_FREE_BLKADDR(sbi, curseg);
-
        if (f2fs_issue_discard(sbi, blkaddr, 1)) {
                struct page *page = grab_meta_page(sbi, blkaddr);
                /* zero-filled page */