{
        struct elevator_queue *e = q->elevator;
        struct blk_mq_ctx *ctx = blk_mq_get_ctx(q);
-       struct blk_mq_hw_ctx *hctx = blk_mq_map_queue(q, bio->bi_opf, ctx->cpu);
+       struct blk_mq_hw_ctx *hctx = blk_mq_map_queue(q, bio->bi_opf, ctx);
        bool ret = false;
        enum hctx_type type;
 
 
 
                data->ctx = blk_mq_get_ctx(data->q);
                data->hctx = blk_mq_map_queue(data->q, data->cmd_flags,
-                                               data->ctx->cpu);
+                                               data->ctx);
                tags = blk_mq_tags_from_data(data);
                if (data->flags & BLK_MQ_REQ_RESERVED)
                        bt = &tags->breserved_tags;
 
        }
        if (likely(!data->hctx))
                data->hctx = blk_mq_map_queue(q, data->cmd_flags,
-                                               data->ctx->cpu);
+                                               data->ctx);
        if (data->cmd_flags & REQ_NOWAIT)
                data->flags |= BLK_MQ_REQ_NOWAIT;
 
                                continue;
 
                        hctx = blk_mq_map_queue_type(q, j, i);
-
+                       ctx->hctxs[j] = hctx;
                        /*
                         * If the CPU is already set in the mask, then we've
                         * mapped this one already. This can happen if
 
 
        unsigned int            cpu;
        unsigned short          index_hw[HCTX_MAX_TYPES];
+       struct blk_mq_hw_ctx    *hctxs[HCTX_MAX_TYPES];
 
        /* incremented at dispatch time */
        unsigned long           rq_dispatched[2];
  * blk_mq_map_queue() - map (cmd_flags,type) to hardware queue
  * @q: request queue
  * @flags: request command flags
- * @cpu: CPU
+ * @cpu: cpu ctx
  */
 static inline struct blk_mq_hw_ctx *blk_mq_map_queue(struct request_queue *q,
                                                     unsigned int flags,
-                                                    unsigned int cpu)
+                                                    struct blk_mq_ctx *ctx)
 {
        enum hctx_type type = HCTX_TYPE_DEFAULT;
 
                 q->tag_set->map[HCTX_TYPE_READ].nr_queues)
                type = HCTX_TYPE_READ;
        
-       return blk_mq_map_queue_type(q, type, cpu);
+       return ctx->hctxs[type];
 }
 
 /*
 
 static inline struct blk_flush_queue *
 blk_get_flush_queue(struct request_queue *q, struct blk_mq_ctx *ctx)
 {
-       return blk_mq_map_queue(q, REQ_OP_FLUSH, ctx->cpu)->fq;
+       return blk_mq_map_queue(q, REQ_OP_FLUSH, ctx)->fq;
 }
 
 static inline void __blk_get_queue(struct request_queue *q)