}
 
 void btrfs_backref_init_cache(struct btrfs_fs_info *fs_info,
-                             struct btrfs_backref_cache *cache, int is_reloc)
+                             struct btrfs_backref_cache *cache, bool is_reloc)
 {
        int i;
 
 
         * Reloction backref cache require more info for reloc root compared
         * to generic backref cache.
         */
-       unsigned int is_reloc;
+       bool is_reloc;
 };
 
 void btrfs_backref_init_cache(struct btrfs_fs_info *fs_info,
-                             struct btrfs_backref_cache *cache, int is_reloc);
+                             struct btrfs_backref_cache *cache, bool is_reloc);
 struct btrfs_backref_node *btrfs_backref_alloc_node(
                struct btrfs_backref_cache *cache, u64 bytenr, int level);
 struct btrfs_backref_edge *btrfs_backref_alloc_edge(
 
 
        INIT_LIST_HEAD(&rc->reloc_roots);
        INIT_LIST_HEAD(&rc->dirty_subvol_roots);
-       btrfs_backref_init_cache(fs_info, &rc->backref_cache, 1);
+       btrfs_backref_init_cache(fs_info, &rc->backref_cache, true);
        rc->reloc_root_tree.rb_root = RB_ROOT;
        spin_lock_init(&rc->reloc_root_tree.lock);
        extent_io_tree_init(fs_info, &rc->processed_blocks, IO_TREE_RELOC_BLOCKS);