int             error;
        bool            partscan;
 
-       error = mutex_lock_killable(&loop_ctl_mutex);
+       error = mutex_lock_killable(&lo->lo_mutex);
        if (error)
                return error;
        error = -ENXIO;
        loop_update_dio(lo);
        blk_mq_unfreeze_queue(lo->lo_queue);
        partscan = lo->lo_flags & LO_FLAGS_PARTSCAN;
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        /*
-        * We must drop file reference outside of loop_ctl_mutex as dropping
+        * We must drop file reference outside of lo_mutex as dropping
         * the file ref can take bd_mutex which creates circular locking
         * dependency.
         */
        return 0;
 
 out_err:
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        if (file)
                fput(file);
        return error;
                        goto out_putf;
        }
 
-       error = mutex_lock_killable(&loop_ctl_mutex);
+       error = mutex_lock_killable(&lo->lo_mutex);
        if (error)
                goto out_bdev;
 
         * put /dev/loopXX inode. Later in __loop_clr_fd() we bdput(bdev).
         */
        bdgrab(bdev);
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        if (partscan)
                loop_reread_partitions(lo, bdev);
        if (!(mode & FMODE_EXCL))
        return 0;
 
 out_unlock:
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
 out_bdev:
        if (!(mode & FMODE_EXCL))
                bd_abort_claiming(bdev, loop_configure);
        bool partscan = false;
        int lo_number;
 
-       mutex_lock(&loop_ctl_mutex);
+       mutex_lock(&lo->lo_mutex);
        if (WARN_ON_ONCE(lo->lo_state != Lo_rundown)) {
                err = -ENXIO;
                goto out_unlock;
        lo_number = lo->lo_number;
        loop_unprepare_queue(lo);
 out_unlock:
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        if (partscan) {
                /*
                 * bd_mutex has been held already in release path, so don't
         * protects us from all the other places trying to change the 'lo'
         * device.
         */
-       mutex_lock(&loop_ctl_mutex);
+       mutex_lock(&lo->lo_mutex);
        lo->lo_flags = 0;
        if (!part_shift)
                lo->lo_disk->flags |= GENHD_FL_NO_PART_SCAN;
        lo->lo_state = Lo_unbound;
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
 
        /*
-        * Need not hold loop_ctl_mutex to fput backing file.
-        * Calling fput holding loop_ctl_mutex triggers a circular
-        * lock dependency possibility warning as fput can take
-        * bd_mutex which is usually taken before loop_ctl_mutex.
+        * Need not hold lo_mutex to fput backing file. Calling fput holding
+        * lo_mutex triggers a circular lock dependency possibility warning as
+        * fput can take bd_mutex which is usually taken before lo_mutex.
         */
        if (filp)
                fput(filp);
 {
        int err;
 
-       err = mutex_lock_killable(&loop_ctl_mutex);
+       err = mutex_lock_killable(&lo->lo_mutex);
        if (err)
                return err;
        if (lo->lo_state != Lo_bound) {
-               mutex_unlock(&loop_ctl_mutex);
+               mutex_unlock(&lo->lo_mutex);
                return -ENXIO;
        }
        /*
         */
        if (atomic_read(&lo->lo_refcnt) > 1) {
                lo->lo_flags |= LO_FLAGS_AUTOCLEAR;
-               mutex_unlock(&loop_ctl_mutex);
+               mutex_unlock(&lo->lo_mutex);
                return 0;
        }
        lo->lo_state = Lo_rundown;
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
 
        return __loop_clr_fd(lo, false);
 }
        bool partscan = false;
        bool size_changed = false;
 
-       err = mutex_lock_killable(&loop_ctl_mutex);
+       err = mutex_lock_killable(&lo->lo_mutex);
        if (err)
                return err;
        if (lo->lo_encrypt_key_size &&
                partscan = true;
        }
 out_unlock:
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        if (partscan)
                loop_reread_partitions(lo, bdev);
 
        struct kstat stat;
        int ret;
 
-       ret = mutex_lock_killable(&loop_ctl_mutex);
+       ret = mutex_lock_killable(&lo->lo_mutex);
        if (ret)
                return ret;
        if (lo->lo_state != Lo_bound) {
-               mutex_unlock(&loop_ctl_mutex);
+               mutex_unlock(&lo->lo_mutex);
                return -ENXIO;
        }
 
                       lo->lo_encrypt_key_size);
        }
 
-       /* Drop loop_ctl_mutex while we call into the filesystem. */
+       /* Drop lo_mutex while we call into the filesystem. */
        path = lo->lo_backing_file->f_path;
        path_get(&path);
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        ret = vfs_getattr(&path, &stat, STATX_INO, AT_STATX_SYNC_AS_STAT);
        if (!ret) {
                info->lo_device = huge_encode_dev(stat.dev);
 {
        int err;
 
-       err = mutex_lock_killable(&loop_ctl_mutex);
+       err = mutex_lock_killable(&lo->lo_mutex);
        if (err)
                return err;
        switch (cmd) {
        default:
                err = lo->ioctl ? lo->ioctl(lo, cmd, arg) : -EINVAL;
        }
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        return err;
 }
 
        struct loop_device *lo;
        int err;
 
+       /*
+        * take loop_ctl_mutex to protect lo pointer from race with
+        * loop_control_ioctl(LOOP_CTL_REMOVE), however, to reduce contention
+        * release it prior to updating lo->lo_refcnt.
+        */
        err = mutex_lock_killable(&loop_ctl_mutex);
        if (err)
                return err;
        lo = bdev->bd_disk->private_data;
        if (!lo) {
-               err = -ENXIO;
-               goto out;
+               mutex_unlock(&loop_ctl_mutex);
+               return -ENXIO;
        }
-
-       atomic_inc(&lo->lo_refcnt);
-out:
+       err = mutex_lock_killable(&lo->lo_mutex);
        mutex_unlock(&loop_ctl_mutex);
-       return err;
+       if (err)
+               return err;
+       atomic_inc(&lo->lo_refcnt);
+       mutex_unlock(&lo->lo_mutex);
+       return 0;
 }
 
 static void lo_release(struct gendisk *disk, fmode_t mode)
 {
-       struct loop_device *lo;
+       struct loop_device *lo = disk->private_data;
 
-       mutex_lock(&loop_ctl_mutex);
-       lo = disk->private_data;
+       mutex_lock(&lo->lo_mutex);
        if (atomic_dec_return(&lo->lo_refcnt))
                goto out_unlock;
 
                if (lo->lo_state != Lo_bound)
                        goto out_unlock;
                lo->lo_state = Lo_rundown;
-               mutex_unlock(&loop_ctl_mutex);
+               mutex_unlock(&lo->lo_mutex);
                /*
                 * In autoclear mode, stop the loop thread
                 * and remove configuration after last close.
        }
 
 out_unlock:
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
 }
 
 static const struct block_device_operations lo_fops = {
        struct loop_device *lo = ptr;
        struct loop_func_table *xfer = data;
 
-       mutex_lock(&loop_ctl_mutex);
+       mutex_lock(&lo->lo_mutex);
        if (lo->lo_encryption == xfer)
                loop_release_xfer(lo);
-       mutex_unlock(&loop_ctl_mutex);
+       mutex_unlock(&lo->lo_mutex);
        return 0;
 }
 
                disk->flags |= GENHD_FL_NO_PART_SCAN;
        disk->flags |= GENHD_FL_EXT_DEVT;
        atomic_set(&lo->lo_refcnt, 0);
+       mutex_init(&lo->lo_mutex);
        lo->lo_number           = i;
        spin_lock_init(&lo->lo_lock);
        disk->major             = LOOP_MAJOR;
        blk_cleanup_queue(lo->lo_queue);
        blk_mq_free_tag_set(&lo->tag_set);
        put_disk(lo->lo_disk);
+       mutex_destroy(&lo->lo_mutex);
        kfree(lo);
 }
 
                ret = loop_lookup(&lo, parm);
                if (ret < 0)
                        break;
+               ret = mutex_lock_killable(&lo->lo_mutex);
+               if (ret)
+                       break;
                if (lo->lo_state != Lo_unbound) {
                        ret = -EBUSY;
+                       mutex_unlock(&lo->lo_mutex);
                        break;
                }
                if (atomic_read(&lo->lo_refcnt) > 0) {
                        ret = -EBUSY;
+                       mutex_unlock(&lo->lo_mutex);
                        break;
                }
                lo->lo_disk->private_data = NULL;
+               mutex_unlock(&lo->lo_mutex);
                idr_remove(&loop_index_idr, lo->lo_number);
                loop_remove(lo);
                break;