return done;
 }
 
-static inline int ublk_copy_user_pages(struct ublk_map_data *data,
-               bool to_vm)
+static int ublk_copy_user_pages(struct ublk_map_data *data, bool to_vm)
 {
        const unsigned int gup_flags = to_vm ? FOLL_WRITE : 0;
        const unsigned long start_vm = data->io->addr;
        return done;
 }
 
+static inline bool ublk_need_map_req(const struct request *req)
+{
+       return ublk_rq_has_data(req) && req_op(req) == REQ_OP_WRITE;
+}
+
+static inline bool ublk_need_unmap_req(const struct request *req)
+{
+       return ublk_rq_has_data(req) && req_op(req) == REQ_OP_READ;
+}
+
 static int ublk_map_io(const struct ublk_queue *ubq, const struct request *req,
                struct ublk_io *io)
 {
         * context and the big benefit is that pinning pages in current
         * context is pretty fast, see ublk_pin_user_pages
         */
-       if (ublk_rq_has_data(req) && req_op(req) == REQ_OP_WRITE) {
+       if (ublk_need_map_req(req)) {
                struct ublk_map_data data = {
                        .ubq    =       ubq,
                        .rq     =       req,
 {
        const unsigned int rq_bytes = blk_rq_bytes(req);
 
-       if (req_op(req) == REQ_OP_READ && ublk_rq_has_data(req)) {
+       if (ublk_need_unmap_req(req)) {
                struct ublk_map_data data = {
                        .ubq    =       ubq,
                        .rq     =       req,
                return;
        }
 
-       if (ublk_need_get_data(ubq) && (req_op(req) == REQ_OP_WRITE)) {
+       if (ublk_need_get_data(ubq) && ublk_need_map_req(req)) {
                /*
                 * We have not handled UBLK_IO_NEED_GET_DATA command yet,
                 * so immepdately pass UBLK_IO_RES_NEED_GET_DATA to ublksrv