}
 }
 
-static struct io_async_msghdr *io_msg_alloc_async(struct io_kiocb *req,
-                                                 unsigned int issue_flags)
+static struct io_async_msghdr *io_msg_alloc_async(struct io_kiocb *req)
 {
        struct io_ring_ctx *ctx = req->ctx;
        struct io_cache_entry *entry;
        struct io_async_msghdr *hdr;
 
-       if (!(issue_flags & IO_URING_F_UNLOCKED)) {
-               entry = io_alloc_cache_get(&ctx->netmsg_cache);
-               if (entry) {
-                       hdr = container_of(entry, struct io_async_msghdr, cache);
-                       hdr->free_iov = NULL;
-                       req->flags |= REQ_F_ASYNC_DATA;
-                       req->async_data = hdr;
-                       return hdr;
-               }
+       entry = io_alloc_cache_get(&ctx->netmsg_cache);
+       if (entry) {
+               hdr = container_of(entry, struct io_async_msghdr, cache);
+               hdr->free_iov = NULL;
+               req->flags |= REQ_F_ASYNC_DATA;
+               req->async_data = hdr;
+               return hdr;
        }
 
        if (!io_alloc_async_data(req)) {
        return NULL;
 }
 
-static inline struct io_async_msghdr *io_msg_alloc_async_prep(struct io_kiocb *req)
-{
-       /* ->prep_async is always called from the submission context */
-       return io_msg_alloc_async(req, 0);
-}
-
 #ifdef CONFIG_COMPAT
 static int io_compat_msg_copy_hdr(struct io_kiocb *req,
                                  struct io_async_msghdr *iomsg,
        struct io_async_msghdr *kmsg;
        int ret;
 
-       /* always locked for prep */
-       kmsg = io_msg_alloc_async(req, 0);
+       kmsg = io_msg_alloc_async(req);
        if (unlikely(!kmsg))
                return -ENOMEM;
        if (!is_msg)
        struct io_async_msghdr *kmsg;
        int ret;
 
-       /* always locked for prep */
-       kmsg = io_msg_alloc_async(req, 0);
+       kmsg = io_msg_alloc_async(req);
        if (unlikely(!kmsg))
                return -ENOMEM;