complete(&data->done);
 }
 
+static inline void io_rsrc_ref_lock(struct io_ring_ctx *ctx)
+{
+       spin_lock_bh(&ctx->rsrc_ref_lock);
+}
+
+static inline void io_rsrc_ref_unlock(struct io_ring_ctx *ctx)
+{
+       spin_unlock_bh(&ctx->rsrc_ref_lock);
+}
+
 static void io_sqe_rsrc_set_node(struct io_ring_ctx *ctx,
                                 struct fixed_rsrc_data *rsrc_data,
                                 struct fixed_rsrc_ref_node *ref_node)
 {
-       spin_lock_bh(&ctx->rsrc_ref_lock);
+       io_rsrc_ref_lock(ctx);
        rsrc_data->node = ref_node;
        list_add_tail(&ref_node->node, &ctx->rsrc_ref_list);
-       spin_unlock_bh(&ctx->rsrc_ref_lock);
+       io_rsrc_ref_unlock(ctx);
        percpu_ref_get(&rsrc_data->refs);
 }
 
        if (!backup_node)
                return -ENOMEM;
 
-       spin_lock_bh(&ctx->rsrc_ref_lock);
+       io_rsrc_ref_lock(ctx);
        ref_node = data->node;
-       spin_unlock_bh(&ctx->rsrc_ref_lock);
+       io_rsrc_ref_unlock(ctx);
        if (ref_node)
                percpu_ref_kill(&ref_node->refs);
 
        data = ref_node->rsrc_data;
        ctx = data->ctx;
 
-       spin_lock_bh(&ctx->rsrc_ref_lock);
+       io_rsrc_ref_lock(ctx);
        ref_node->done = true;
 
        while (!list_empty(&ctx->rsrc_ref_list)) {
                list_del(&ref_node->node);
                first_add |= llist_add(&ref_node->llist, &ctx->rsrc_put_llist);
        }
-       spin_unlock_bh(&ctx->rsrc_ref_lock);
+       io_rsrc_ref_unlock(ctx);
 
        if (percpu_ref_is_dying(&data->refs))
                delay = 0;