/*
         * We abuse this flag that is otherwise used by the I/O scheduler to
-        * request head insertation from the workqueue.
+        * request head insertion from the workqueue.
         */
        BUG_ON(rq->rq_flags & RQF_SOFTBARRIER);
 
                if (ret == BLK_STS_RESOURCE) {
                        /*
                         * If an I/O scheduler has been configured and we got a
-                        * driver tag for the next request already, free it again.
+                        * driver tag for the next request already, free it
+                        * again.
                         */
                        if (!list_empty(list)) {
                                nxt = list_first_entry(list, struct request, queuelist);
 
        mutex_lock(&set->tag_list_lock);
 
-       /* Check to see if we're transitioning to shared (from 1 to 2 queues). */
-       if (!list_empty(&set->tag_list) && !(set->flags & BLK_MQ_F_TAG_SHARED)) {
+       /*
+        * Check to see if we're transitioning to shared (from 1 to 2 queues).
+        */
+       if (!list_empty(&set->tag_list) &&
+           !(set->flags & BLK_MQ_F_TAG_SHARED)) {
                set->flags |= BLK_MQ_F_TAG_SHARED;
                /* update existing queue */
                blk_mq_update_tag_set_depth(set, true);
 
        /*
         * redo blk_mq_init_cpu_queues and blk_mq_init_hw_queues. FIXME: maybe
-        * we should change hctx numa_node according to new topology (this
-        * involves free and re-allocate memory, worthy doing?)
+        * we should change hctx numa_node according to the new topology (this
+        * involves freeing and re-allocating memory, worth doing?)
         */
-
        blk_mq_map_swqueue(q);
 
        blk_mq_sysfs_register(q);