*/
 #define BTRFS_AVAIL_ALLOC_BIT_SINGLE   (1ULL << 48)
 
+#define BTRFS_EXTENDED_PROFILE_MASK    (BTRFS_BLOCK_GROUP_PROFILE_MASK | \
+                                        BTRFS_AVAIL_ALLOC_BIT_SINGLE)
+
+static inline u64 chunk_to_extended(u64 flags)
+{
+       if ((flags & BTRFS_BLOCK_GROUP_PROFILE_MASK) == 0)
+               flags |= BTRFS_AVAIL_ALLOC_BIT_SINGLE;
+
+       return flags;
+}
+static inline u64 extended_to_chunk(u64 flags)
+{
+       return flags & ~BTRFS_AVAIL_ALLOC_BIT_SINGLE;
+}
+
 struct btrfs_block_group_item {
        __le64 used;
        __le64 chunk_objectid;
 
 
 static void set_avail_alloc_bits(struct btrfs_fs_info *fs_info, u64 flags)
 {
-       u64 extra_flags = flags & BTRFS_BLOCK_GROUP_PROFILE_MASK;
-
-       /* chunk -> extended profile */
-       if (extra_flags == 0)
-               extra_flags = BTRFS_AVAIL_ALLOC_BIT_SINGLE;
+       u64 extra_flags = chunk_to_extended(flags) &
+                               BTRFS_EXTENDED_PROFILE_MASK;
 
        if (flags & BTRFS_BLOCK_GROUP_DATA)
                fs_info->avail_data_alloc_bits |= extra_flags;
        }
 
 out:
-       /* extended -> chunk profile */
-       flags &= ~BTRFS_AVAIL_ALLOC_BIT_SINGLE;
-       return flags;
+       return extended_to_chunk(flags);
 }
 
 static u64 get_alloc_profile(struct btrfs_root *root, u64 flags)
                        tgt = BTRFS_BLOCK_GROUP_METADATA | bctl->meta.target;
                }
 
-               if (tgt) {
-                       /* extended -> chunk profile */
-                       tgt &= ~BTRFS_AVAIL_ALLOC_BIT_SINGLE;
-                       return tgt;
-               }
+               if (tgt)
+                       return extended_to_chunk(tgt);
        }
 
        /*
 
 static void clear_avail_alloc_bits(struct btrfs_fs_info *fs_info, u64 flags)
 {
-       u64 extra_flags = flags & BTRFS_BLOCK_GROUP_PROFILE_MASK;
-
-       /* chunk -> extended profile */
-       if (extra_flags == 0)
-               extra_flags = BTRFS_AVAIL_ALLOC_BIT_SINGLE;
+       u64 extra_flags = chunk_to_extended(flags) &
+                               BTRFS_EXTENDED_PROFILE_MASK;
 
        if (flags & BTRFS_BLOCK_GROUP_DATA)
                fs_info->avail_data_alloc_bits &= ~extra_flags;
 
  * Balance filters.  Return 1 if chunk should be filtered out
  * (should not be balanced).
  */
-static int chunk_profiles_filter(u64 chunk_profile,
+static int chunk_profiles_filter(u64 chunk_type,
                                 struct btrfs_balance_args *bargs)
 {
-       chunk_profile &= BTRFS_BLOCK_GROUP_PROFILE_MASK;
+       chunk_type = chunk_to_extended(chunk_type) &
+                               BTRFS_EXTENDED_PROFILE_MASK;
 
-       if (chunk_profile == 0)
-               chunk_profile = BTRFS_AVAIL_ALLOC_BIT_SINGLE;
-
-       if (bargs->profiles & chunk_profile)
+       if (bargs->profiles & chunk_type)
                return 0;
 
        return 1;
        return 1;
 }
 
-static int chunk_soft_convert_filter(u64 chunk_profile,
+static int chunk_soft_convert_filter(u64 chunk_type,
                                     struct btrfs_balance_args *bargs)
 {
        if (!(bargs->flags & BTRFS_BALANCE_ARGS_CONVERT))
                return 0;
 
-       chunk_profile &= BTRFS_BLOCK_GROUP_PROFILE_MASK;
-
-       if (chunk_profile == 0)
-               chunk_profile = BTRFS_AVAIL_ALLOC_BIT_SINGLE;
+       chunk_type = chunk_to_extended(chunk_type) &
+                               BTRFS_EXTENDED_PROFILE_MASK;
 
-       if (bargs->target & chunk_profile)
+       if (bargs->target == chunk_type)
                return 1;
 
        return 0;