* bypass a potential scheduler on the bottom device for
                 * insert.
                 */
-               return blk_mq_request_direct_issue(rq);
+               return blk_mq_request_issue_directly(rq);
        }
 
        spin_lock_irqsave(q->queue_lock, flags);
 
         * RCU or SRCU read lock is needed before checking quiesced flag.
         *
         * When queue is stopped or quiesced, ignore 'bypass_insert' from
-        * blk_mq_request_direct_issue(), and return BLK_STS_OK to caller,
+        * blk_mq_request_issue_directly(), and return BLK_STS_OK to caller,
         * and avoid driver to try to dispatch again.
         */
        if (blk_mq_hctx_stopped(hctx) || blk_queue_quiesced(q)) {
        hctx_unlock(hctx, srcu_idx);
 }
 
-blk_status_t blk_mq_request_direct_issue(struct request *rq)
+blk_status_t blk_mq_request_issue_directly(struct request *rq)
 {
        blk_status_t ret;
        int srcu_idx;
 
                                struct list_head *list);
 
 /* Used by blk_insert_cloned_request() to issue request directly */
-blk_status_t blk_mq_request_direct_issue(struct request *rq);
+blk_status_t blk_mq_request_issue_directly(struct request *rq);
 
 /*
  * CPU -> queue mappings