]> www.infradead.org Git - users/dwmw2/linux.git/commitdiff
block: Rename BLKDEV_MAX_RQ -> BLKDEV_DEFAULT_RQ
authorJohn Garry <john.garry@huawei.com>
Tue, 5 Oct 2021 10:23:27 +0000 (18:23 +0800)
committerJens Axboe <axboe@kernel.dk>
Mon, 18 Oct 2021 12:17:02 +0000 (06:17 -0600)
It is a bit confusing that there is BLKDEV_MAX_RQ and MAX_SCHED_RQ, as
the name BLKDEV_MAX_RQ would imply the max requests always, which it is
not.

Rename to BLKDEV_MAX_RQ to BLKDEV_DEFAULT_RQ, matching its usage - that being
the default number of requests assigned when allocating a request queue.

Signed-off-by: John Garry <john.garry@huawei.com>
Reviewed-by: Ming Lei <ming.lei@redhat.com>
Reviewed-by: Hannes Reinecke <hare@suse.de>
Link: https://lore.kernel.org/r/1633429419-228500-3-git-send-email-john.garry@huawei.com
Signed-off-by: Jens Axboe <axboe@kernel.dk>
block/blk-core.c
block/blk-mq-sched.c
block/blk-mq-sched.h
drivers/block/rbd.c
include/linux/blk-mq.h

index 4695508452443d429c3192e87401a350f0caa9cd..2590e7724990977bcaaa5d16a42169d7beac80c3 100644 (file)
@@ -587,7 +587,7 @@ struct request_queue *blk_alloc_queue(int node_id)
 
        blk_queue_dma_alignment(q, 511);
        blk_set_default_limits(&q->limits);
-       q->nr_requests = BLKDEV_MAX_RQ;
+       q->nr_requests = BLKDEV_DEFAULT_RQ;
 
        return q;
 
index 0f006cabfd914866a3b328b0c8f4ca31e207c9c5..2231fb0d4c35e5f377e24d51288904151e7978a1 100644 (file)
@@ -606,7 +606,7 @@ int blk_mq_init_sched(struct request_queue *q, struct elevator_type *e)
         * Additionally, this is a per-hw queue depth.
         */
        q->nr_requests = 2 * min_t(unsigned int, q->tag_set->queue_depth,
-                                  BLKDEV_MAX_RQ);
+                                  BLKDEV_DEFAULT_RQ);
 
        queue_for_each_hw_ctx(q, hctx, i) {
                ret = blk_mq_sched_alloc_tags(q, hctx, i);
index 5181487db7923214e07955080eb09f8db1aa049b..f6a1ce9e31f38cfe8c3983e23bea8ac8ff0b1a36 100644 (file)
@@ -6,7 +6,7 @@
 #include "blk-mq.h"
 #include "blk-mq-tag.h"
 
-#define MAX_SCHED_RQ (16 * BLKDEV_MAX_RQ)
+#define MAX_SCHED_RQ (16 * BLKDEV_DEFAULT_RQ)
 
 void blk_mq_sched_assign_ioc(struct request *rq);
 
index e65c9d706f6fbaf174b49f84d0b52899571ea6af..bf60aebd0cfbe7606cbd79f068a107d7c909fc9b 100644 (file)
@@ -836,7 +836,7 @@ struct rbd_options {
        u32 alloc_hint_flags;  /* CEPH_OSD_OP_ALLOC_HINT_FLAG_* */
 };
 
-#define RBD_QUEUE_DEPTH_DEFAULT        BLKDEV_MAX_RQ
+#define RBD_QUEUE_DEPTH_DEFAULT        BLKDEV_DEFAULT_RQ
 #define RBD_ALLOC_SIZE_DEFAULT (64 * 1024)
 #define RBD_LOCK_TIMEOUT_DEFAULT 0  /* no timeout */
 #define RBD_READ_ONLY_DEFAULT  false
index bd4086a6f28e01c17e6fa96c98420a636f860d5e..31cc41dfef6b4d0bd3e920244064ea3ec90e55a7 100644 (file)
@@ -12,7 +12,7 @@ struct blk_mq_tags;
 struct blk_flush_queue;
 
 #define BLKDEV_MIN_RQ  4
-#define BLKDEV_MAX_RQ  128     /* Default maximum */
+#define BLKDEV_DEFAULT_RQ      128
 
 typedef void (rq_end_io_fn)(struct request *, blk_status_t);