*/
        trace_btrfs_add_block_group(fs_info, cache, 1);
        btrfs_update_space_info(fs_info, cache->flags, size, bytes_used,
-                               cache->bytes_super, 0, &cache->space_info);
+                               cache->bytes_super, cache->zone_unusable,
+                               &cache->space_info);
        btrfs_update_global_block_rsv(fs_info);
 
        link_block_group(cache);
        if (!--cache->ro) {
                if (btrfs_is_zoned(cache->fs_info)) {
                        /* Migrate zone_unusable bytes back */
-                       cache->zone_unusable = cache->alloc_offset - cache->used;
+                       cache->zone_unusable =
+                               (cache->alloc_offset - cache->used) +
+                               (cache->length - cache->zone_capacity);
                        sinfo->bytes_zone_unusable += cache->zone_unusable;
                        sinfo->bytes_readonly -= cache->zone_unusable;
                }
 
                goto out;
        }
 
-       avail = block_group->length - block_group->alloc_offset;
+       WARN_ON_ONCE(block_group->alloc_offset > block_group->zone_capacity);
+       avail = block_group->zone_capacity - block_group->alloc_offset;
        if (avail < num_bytes) {
                if (ffe_ctl->max_extent_size < avail) {
                        /*
 
        u64 offset = bytenr - block_group->start;
        u64 to_free, to_unusable;
        const int bg_reclaim_threshold = READ_ONCE(fs_info->bg_reclaim_threshold);
+       bool initial = (size == block_group->length);
+
+       WARN_ON(!initial && offset + size > block_group->zone_capacity);
 
        spin_lock(&ctl->tree_lock);
        if (!used)
                to_free = size;
+       else if (initial)
+               to_free = block_group->zone_capacity;
        else if (offset >= block_group->alloc_offset)
                to_free = size;
        else if (offset + size <= block_group->alloc_offset)
         */
        if (btrfs_is_zoned(fs_info)) {
                btrfs_info(fs_info, "free space %llu",
-                          block_group->length - block_group->alloc_offset);
+                          block_group->zone_capacity - block_group->alloc_offset);
                return;
        }
 
 
                return;
 
        WARN_ON(cache->bytes_super != 0);
-       unusable = cache->alloc_offset - cache->used;
-       free = cache->length - cache->alloc_offset;
+       unusable = (cache->alloc_offset - cache->used) +
+                  (cache->length - cache->zone_capacity);
+       free = cache->zone_capacity - cache->alloc_offset;
 
        /* We only need ->free_space in ALLOC_SEQ block groups */
        cache->last_byte_to_unpin = (u64)-1;