state->cqes_count = 0;
 }
 
-bool io_post_aux_cqe(struct io_ring_ctx *ctx,
-                    u64 user_data, s32 res, u32 cflags,
-                    bool allow_overflow)
+static bool __io_post_aux_cqe(struct io_ring_ctx *ctx, u64 user_data, s32 res, u32 cflags,
+                             bool allow_overflow)
 {
        bool filled;
 
        return filled;
 }
 
+bool io_post_aux_cqe(struct io_ring_ctx *ctx, u64 user_data, s32 res, u32 cflags)
+{
+       return __io_post_aux_cqe(ctx, user_data, res, cflags, true);
+}
+
 bool io_aux_cqe(struct io_ring_ctx *ctx, bool defer, u64 user_data, s32 res, u32 cflags,
                bool allow_overflow)
 {
        unsigned int length;
 
        if (!defer)
-               return io_post_aux_cqe(ctx, user_data, res, cflags, allow_overflow);
+               return __io_post_aux_cqe(ctx, user_data, res, cflags, allow_overflow);
 
        length = ARRAY_SIZE(ctx->submit_state.cqes);
 
 
 int io_run_local_work(struct io_ring_ctx *ctx);
 void io_req_defer_failed(struct io_kiocb *req, s32 res);
 void io_req_complete_post(struct io_kiocb *req, unsigned issue_flags);
-bool io_post_aux_cqe(struct io_ring_ctx *ctx, u64 user_data, s32 res, u32 cflags,
-                    bool allow_overflow);
+bool io_post_aux_cqe(struct io_ring_ctx *ctx, u64 user_data, s32 res, u32 cflags);
 bool io_aux_cqe(struct io_ring_ctx *ctx, bool defer, u64 user_data, s32 res, u32 cflags,
                bool allow_overflow);
 void __io_commit_cqring_flush(struct io_ring_ctx *ctx);
 
        if (msg->src_fd || msg->dst_fd || msg->flags)
                return -EINVAL;
 
-       if (io_post_aux_cqe(target_ctx, msg->user_data, msg->len, 0, true))
+       if (io_post_aux_cqe(target_ctx, msg->user_data, msg->len, 0))
                return 0;
 
        return -EOVERFLOW;
         * completes with -EOVERFLOW, then the sender must ensure that a
         * later IORING_OP_MSG_RING delivers the message.
         */
-       if (!io_post_aux_cqe(target_ctx, msg->user_data, msg->len, 0, true))
+       if (!io_post_aux_cqe(target_ctx, msg->user_data, msg->len, 0))
                ret = -EOVERFLOW;
 out_unlock:
        io_double_unlock_ctx(ctx, target_ctx, issue_flags);
 
                if (prsrc->tag) {
                        if (ctx->flags & IORING_SETUP_IOPOLL) {
                                mutex_lock(&ctx->uring_lock);
-                               io_post_aux_cqe(ctx, prsrc->tag, 0, 0, true);
+                               io_post_aux_cqe(ctx, prsrc->tag, 0, 0);
                                mutex_unlock(&ctx->uring_lock);
                        } else {
-                               io_post_aux_cqe(ctx, prsrc->tag, 0, 0, true);
+                               io_post_aux_cqe(ctx, prsrc->tag, 0, 0);
                        }
                }