blocks_per_page = PAGE_CACHE_SIZE / sb->s_blocksize;
        this_grp = ext4_get_group_info(sb, group);
        /*
-        * This ensures we don't add group
-        * to this buddy cache via resize
+        * This ensures that we don't reinit the buddy cache
+        * page which map to the group from which we are already
+        * allocating. If we are looking at the buddy cache we would
+        * have taken a reference using ext4_mb_load_buddy and that
+        * would have taken the alloc_sem lock.
         */
        num_grp_locked =  ext4_mb_get_buddy_cache_lock(sb, group);
        if (!EXT4_MB_GRP_NEED_INIT(this_grp)) {
 
        struct inode *inode = NULL;
        handle_t *handle;
        int gdb_off, gdb_num;
-       int num_grp_locked = 0;
        int err, err2;
 
        gdb_num = input->group / EXT4_DESC_PER_BLOCK(sb);
          * using the new disk blocks.
          */
 
-       num_grp_locked = ext4_mb_get_buddy_cache_lock(sb, input->group);
        /* Update group descriptor block for new group */
        gdp = (struct ext4_group_desc *)((char *)primary->b_data +
                                         gdb_off * EXT4_DESC_SIZE(sb));
         * descriptor
         */
        err = ext4_mb_add_groupinfo(sb, input->group, gdp);
-       if (err) {
-               ext4_mb_put_buddy_cache_lock(sb, input->group, num_grp_locked);
+       if (err)
                goto exit_journal;
-       }
 
        /*
         * Make the new blocks and inodes valid next.  We do this before
 
        /* Update the global fs size fields */
        sbi->s_groups_count++;
-       ext4_mb_put_buddy_cache_lock(sb, input->group, num_grp_locked);
 
        ext4_handle_dirty_metadata(handle, NULL, primary);