int key_len;
        unsigned long fc;
        union {
-               struct crypto_skcipher *blk;
+               struct crypto_sync_skcipher *blk;
                struct crypto_cipher *cip;
        } fallback;
 };
        u8 pcc_key[32];
        int key_len;
        unsigned long fc;
-       struct crypto_skcipher *fallback;
+       struct crypto_sync_skcipher *fallback;
 };
 
 struct gcm_sg_walk {
        struct s390_aes_ctx *sctx = crypto_tfm_ctx(tfm);
        unsigned int ret;
 
-       crypto_skcipher_clear_flags(sctx->fallback.blk, CRYPTO_TFM_REQ_MASK);
-       crypto_skcipher_set_flags(sctx->fallback.blk, tfm->crt_flags &
+       crypto_sync_skcipher_clear_flags(sctx->fallback.blk,
+                                        CRYPTO_TFM_REQ_MASK);
+       crypto_sync_skcipher_set_flags(sctx->fallback.blk, tfm->crt_flags &
                                                      CRYPTO_TFM_REQ_MASK);
 
-       ret = crypto_skcipher_setkey(sctx->fallback.blk, key, len);
+       ret = crypto_sync_skcipher_setkey(sctx->fallback.blk, key, len);
 
        tfm->crt_flags &= ~CRYPTO_TFM_RES_MASK;
-       tfm->crt_flags |= crypto_skcipher_get_flags(sctx->fallback.blk) &
+       tfm->crt_flags |= crypto_sync_skcipher_get_flags(sctx->fallback.blk) &
                          CRYPTO_TFM_RES_MASK;
 
        return ret;
        unsigned int ret;
        struct crypto_blkcipher *tfm = desc->tfm;
        struct s390_aes_ctx *sctx = crypto_blkcipher_ctx(tfm);
-       SKCIPHER_REQUEST_ON_STACK(req, sctx->fallback.blk);
+       SYNC_SKCIPHER_REQUEST_ON_STACK(req, sctx->fallback.blk);
 
-       skcipher_request_set_tfm(req, sctx->fallback.blk);
+       skcipher_request_set_sync_tfm(req, sctx->fallback.blk);
        skcipher_request_set_callback(req, desc->flags, NULL, NULL);
        skcipher_request_set_crypt(req, src, dst, nbytes, desc->info);
 
        unsigned int ret;
        struct crypto_blkcipher *tfm = desc->tfm;
        struct s390_aes_ctx *sctx = crypto_blkcipher_ctx(tfm);
-       SKCIPHER_REQUEST_ON_STACK(req, sctx->fallback.blk);
+       SYNC_SKCIPHER_REQUEST_ON_STACK(req, sctx->fallback.blk);
 
-       skcipher_request_set_tfm(req, sctx->fallback.blk);
+       skcipher_request_set_sync_tfm(req, sctx->fallback.blk);
        skcipher_request_set_callback(req, desc->flags, NULL, NULL);
        skcipher_request_set_crypt(req, src, dst, nbytes, desc->info);
 
        const char *name = tfm->__crt_alg->cra_name;
        struct s390_aes_ctx *sctx = crypto_tfm_ctx(tfm);
 
-       sctx->fallback.blk = crypto_alloc_skcipher(name, 0,
-                                                  CRYPTO_ALG_ASYNC |
+       sctx->fallback.blk = crypto_alloc_sync_skcipher(name, 0,
                                                   CRYPTO_ALG_NEED_FALLBACK);
 
        if (IS_ERR(sctx->fallback.blk)) {
 {
        struct s390_aes_ctx *sctx = crypto_tfm_ctx(tfm);
 
-       crypto_free_skcipher(sctx->fallback.blk);
+       crypto_free_sync_skcipher(sctx->fallback.blk);
 }
 
 static struct crypto_alg ecb_aes_alg = {
        struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm);
        unsigned int ret;
 
-       crypto_skcipher_clear_flags(xts_ctx->fallback, CRYPTO_TFM_REQ_MASK);
-       crypto_skcipher_set_flags(xts_ctx->fallback, tfm->crt_flags &
+       crypto_sync_skcipher_clear_flags(xts_ctx->fallback,
+                                        CRYPTO_TFM_REQ_MASK);
+       crypto_sync_skcipher_set_flags(xts_ctx->fallback, tfm->crt_flags &
                                                     CRYPTO_TFM_REQ_MASK);
 
-       ret = crypto_skcipher_setkey(xts_ctx->fallback, key, len);
+       ret = crypto_sync_skcipher_setkey(xts_ctx->fallback, key, len);
 
        tfm->crt_flags &= ~CRYPTO_TFM_RES_MASK;
-       tfm->crt_flags |= crypto_skcipher_get_flags(xts_ctx->fallback) &
+       tfm->crt_flags |= crypto_sync_skcipher_get_flags(xts_ctx->fallback) &
                          CRYPTO_TFM_RES_MASK;
 
        return ret;
 {
        struct crypto_blkcipher *tfm = desc->tfm;
        struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(tfm);
-       SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback);
+       SYNC_SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback);
        unsigned int ret;
 
-       skcipher_request_set_tfm(req, xts_ctx->fallback);
+       skcipher_request_set_sync_tfm(req, xts_ctx->fallback);
        skcipher_request_set_callback(req, desc->flags, NULL, NULL);
        skcipher_request_set_crypt(req, src, dst, nbytes, desc->info);
 
 {
        struct crypto_blkcipher *tfm = desc->tfm;
        struct s390_xts_ctx *xts_ctx = crypto_blkcipher_ctx(tfm);
-       SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback);
+       SYNC_SKCIPHER_REQUEST_ON_STACK(req, xts_ctx->fallback);
        unsigned int ret;
 
-       skcipher_request_set_tfm(req, xts_ctx->fallback);
+       skcipher_request_set_sync_tfm(req, xts_ctx->fallback);
        skcipher_request_set_callback(req, desc->flags, NULL, NULL);
        skcipher_request_set_crypt(req, src, dst, nbytes, desc->info);
 
        const char *name = tfm->__crt_alg->cra_name;
        struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm);
 
-       xts_ctx->fallback = crypto_alloc_skcipher(name, 0,
-                                                 CRYPTO_ALG_ASYNC |
+       xts_ctx->fallback = crypto_alloc_sync_skcipher(name, 0,
                                                  CRYPTO_ALG_NEED_FALLBACK);
 
        if (IS_ERR(xts_ctx->fallback)) {
 {
        struct s390_xts_ctx *xts_ctx = crypto_tfm_ctx(tfm);
 
-       crypto_free_skcipher(xts_ctx->fallback);
+       crypto_free_sync_skcipher(xts_ctx->fallback);
 }
 
 static struct crypto_alg xts_aes_alg = {