struct sock *sk;
        int aead_size;
 
+       /* If requests get too backlogged crypto API returns -EBUSY and calls
+        * ->complete(-EINPROGRESS) immediately followed by ->complete(0)
+        * to make waiting for backlog to flush with crypto_wait_req() easier.
+        * First wait converts -EBUSY -> -EINPROGRESS, and the second one
+        * -EINPROGRESS -> 0.
+        * We have a single struct crypto_async_request per direction, this
+        * scheme doesn't help us, so just ignore the first ->complete().
+        */
+       if (err == -EINPROGRESS)
+               return;
+
        aead_size = sizeof(*aead_req) + crypto_aead_reqsize(aead);
        aead_size = ALIGN(aead_size, __alignof__(*dctx));
        dctx = (void *)((u8 *)aead_req + aead_size);
        }
 
        ret = crypto_aead_decrypt(aead_req);
+       if (ret == -EBUSY) {
+               ret = tls_decrypt_async_wait(ctx);
+               ret = ret ?: -EINPROGRESS;
+       }
        if (ret == -EINPROGRESS) {
                if (darg->async)
                        return 0;
        struct sk_msg *msg_en;
        struct sock *sk;
 
+       if (err == -EINPROGRESS) /* see the comment in tls_decrypt_done() */
+               return;
+
        msg_en = &rec->msg_encrypted;
 
        sk = rec->sk;
        atomic_inc(&ctx->encrypt_pending);
 
        rc = crypto_aead_encrypt(aead_req);
+       if (rc == -EBUSY) {
+               rc = tls_encrypt_async_wait(ctx);
+               rc = rc ?: -EINPROGRESS;
+       }
        if (!rc || rc != -EINPROGRESS) {
                atomic_dec(&ctx->encrypt_pending);
                sge->offset -= prot->prepend_size;