int nilfs_btree_broken_node_block(struct buffer_head *bh)
 {
-       return nilfs_btree_node_broken((struct nilfs_btree_node *)bh->b_data,
+       int ret;
+
+       if (buffer_nilfs_checked(bh))
+               return 0;
+
+       ret = nilfs_btree_node_broken((struct nilfs_btree_node *)bh->b_data,
                                       bh->b_size, bh->b_blocknr);
+       if (likely(!ret))
+               set_buffer_nilfs_checked(bh);
+       return ret;
 }
 
 static struct nilfs_btree_node *
 
 
 #define NILFS_BUFFER_INHERENT_BITS  \
        ((1UL << BH_Uptodate) | (1UL << BH_Mapped) | (1UL << BH_NILFS_Node) | \
-        (1UL << BH_NILFS_Volatile) | (1UL << BH_NILFS_Allocated))
+        (1UL << BH_NILFS_Volatile) | (1UL << BH_NILFS_Allocated) | \
+        (1UL << BH_NILFS_Checked))
 
 static struct buffer_head *
 __nilfs_get_page_block(struct page *page, unsigned long block, pgoff_t index,
 
        lock_buffer(bh);
        clear_buffer_nilfs_volatile(bh);
+       clear_buffer_nilfs_checked(bh);
        clear_buffer_dirty(bh);
        if (nilfs_page_buffers_clean(page))
                __nilfs_clear_page_dirty(page);
                                lock_buffer(bh);
                                clear_buffer_dirty(bh);
                                clear_buffer_nilfs_volatile(bh);
+                               clear_buffer_nilfs_checked(bh);
                                clear_buffer_uptodate(bh);
                                clear_buffer_mapped(bh);
                                unlock_buffer(bh);
 
        BH_NILFS_Allocated = BH_PrivateStart,
        BH_NILFS_Node,
        BH_NILFS_Volatile,
+       BH_NILFS_Checked,
 };
 
 BUFFER_FNS(NILFS_Allocated, nilfs_allocated)   /* nilfs private buffers */
 BUFFER_FNS(NILFS_Node, nilfs_node)             /* nilfs node buffers */
 BUFFER_FNS(NILFS_Volatile, nilfs_volatile)
+BUFFER_FNS(NILFS_Checked, nilfs_checked)       /* buffer is verified */
 
 
 void nilfs_mark_buffer_dirty(struct buffer_head *bh);