__sg_free_table(&sdb->table, SCSI_MAX_SG_SEGMENTS, mq, scsi_sg_free);
 }
 
-static int scsi_alloc_sgtable(struct scsi_data_buffer *sdb, int nents,
-                             gfp_t gfp_mask, bool mq)
+static int scsi_alloc_sgtable(struct scsi_data_buffer *sdb, int nents, bool mq)
 {
        struct scatterlist *first_chunk = NULL;
+       gfp_t gfp_mask = mq ? GFP_NOIO : GFP_ATOMIC;
        int ret;
 
        BUG_ON(!nents);
        }
 }
 
-static int scsi_init_sgtable(struct request *req, struct scsi_data_buffer *sdb,
-                            gfp_t gfp_mask)
+static int scsi_init_sgtable(struct request *req, struct scsi_data_buffer *sdb)
 {
        int count;
 
         * If sg table allocation fails, requeue request later.
         */
        if (unlikely(scsi_alloc_sgtable(sdb, req->nr_phys_segments,
-                                       gfp_mask, req->mq_ctx != NULL)))
+                                       req->mq_ctx != NULL)))
                return BLKPREP_DEFER;
 
        /* 
  *             BLKPREP_DEFER if the failure is retryable
  *             BLKPREP_KILL if the failure is fatal
  */
-int scsi_init_io(struct scsi_cmnd *cmd, gfp_t gfp_mask)
+int scsi_init_io(struct scsi_cmnd *cmd)
 {
        struct scsi_device *sdev = cmd->device;
        struct request *rq = cmd->request;
 
        BUG_ON(!rq->nr_phys_segments);
 
-       error = scsi_init_sgtable(rq, &cmd->sdb, gfp_mask);
+       error = scsi_init_sgtable(rq, &cmd->sdb);
        if (error)
                goto err_exit;
 
                        rq->next_rq->special = bidi_sdb;
                }
 
-               error = scsi_init_sgtable(rq->next_rq, rq->next_rq->special,
-                                         GFP_ATOMIC);
+               error = scsi_init_sgtable(rq->next_rq, rq->next_rq->special);
                if (error)
                        goto err_exit;
        }
                BUG_ON(prot_sdb == NULL);
                ivecs = blk_rq_count_integrity_sg(rq->q, rq->bio);
 
-               if (scsi_alloc_sgtable(prot_sdb, ivecs, gfp_mask, is_mq)) {
+               if (scsi_alloc_sgtable(prot_sdb, ivecs, is_mq)) {
                        error = BLKPREP_DEFER;
                        goto err_exit;
                }
         * submit a request without an attached bio.
         */
        if (req->bio) {
-               int ret = scsi_init_io(cmd, GFP_ATOMIC);
+               int ret = scsi_init_io(cmd);
                if (unlikely(ret))
                        return ret;
        } else {
 
         * amount of blocks described by the request.
         */
        blk_add_request_payload(rq, page, len);
-       ret = scsi_init_io(cmd, GFP_ATOMIC);
+       ret = scsi_init_io(cmd);
        rq->__data_len = nr_bytes;
 
 out:
         * knows how much to actually write.
         */
        rq->__data_len = sdp->sector_size;
-       ret = scsi_init_io(cmd, GFP_ATOMIC);
+       ret = scsi_init_io(cmd);
        rq->__data_len = nr_bytes;
        return ret;
 }
        int ret;
        unsigned char protect;
 
-       ret = scsi_init_io(SCpnt, GFP_ATOMIC);
+       ret = scsi_init_io(SCpnt);
        if (ret != BLKPREP_OK)
                goto out;
        SCpnt = rq->special;