.ivsize = GCM_AES_IV_SIZE,
        .maxauthsize = AES_BLOCK_SIZE,
        .base = {
-               .cra_flags      = CRYPTO_ALG_TYPE_ABLKCIPHER |
-                                 CRYPTO_ALG_ASYNC |
+               .cra_flags      = CRYPTO_ALG_ASYNC |
                                  CRYPTO_ALG_KERN_DRIVER_ONLY |
                                  CRYPTO_ALG_NEED_FALLBACK,
                .cra_blocksize  = AES_BLOCK_SIZE,
                .cra_ctxsize    = sizeof(struct ccp_ctx),
                .cra_priority   = CCP_CRA_PRIORITY,
-               .cra_type       = &crypto_ablkcipher_type,
                .cra_exit       = ccp_aes_gcm_cra_exit,
                .cra_module     = THIS_MODULE,
        },
        snprintf(alg->base.cra_driver_name, CRYPTO_MAX_ALG_NAME, "%s",
                 def->driver_name);
        alg->base.cra_blocksize = def->blocksize;
-       alg->base.cra_ablkcipher.ivsize = def->ivsize;
 
        ret = crypto_register_aead(alg);
        if (ret) {
-               pr_err("%s ablkcipher algorithm registration error (%d)\n",
+               pr_err("%s aead algorithm registration error (%d)\n",
                       alg->base.cra_name, ret);
                kfree(ccp_aead);
                return ret;
 
        const char *drv_name;
 };
 
-static struct ccp_aes_xts_def aes_xts_algs[] = {
+static const struct ccp_aes_xts_def aes_xts_algs[] = {
        {
                .name           = "xts(aes)",
                .drv_name       = "xts-aes-ccp",
 
 static int ccp_aes_xts_complete(struct crypto_async_request *async_req, int ret)
 {
-       struct ablkcipher_request *req = ablkcipher_request_cast(async_req);
-       struct ccp_aes_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct skcipher_request *req = skcipher_request_cast(async_req);
+       struct ccp_aes_req_ctx *rctx = skcipher_request_ctx(req);
 
        if (ret)
                return ret;
 
-       memcpy(req->info, rctx->iv, AES_BLOCK_SIZE);
+       memcpy(req->iv, rctx->iv, AES_BLOCK_SIZE);
 
        return 0;
 }
 
-static int ccp_aes_xts_setkey(struct crypto_ablkcipher *tfm, const u8 *key,
+static int ccp_aes_xts_setkey(struct crypto_skcipher *tfm, const u8 *key,
                              unsigned int key_len)
 {
-       struct crypto_tfm *xfm = crypto_ablkcipher_tfm(tfm);
-       struct ccp_ctx *ctx = crypto_tfm_ctx(xfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
        unsigned int ccpversion = ccp_version();
        int ret;
 
-       ret = xts_check_key(xfm, key, key_len);
+       ret = xts_verify_key(tfm, key, key_len);
        if (ret)
                return ret;
 
        return crypto_sync_skcipher_setkey(ctx->u.aes.tfm_skcipher, key, key_len);
 }
 
-static int ccp_aes_xts_crypt(struct ablkcipher_request *req,
+static int ccp_aes_xts_crypt(struct skcipher_request *req,
                             unsigned int encrypt)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(req->base.tfm);
-       struct ccp_aes_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct crypto_skcipher *tfm = crypto_skcipher_reqtfm(req);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
+       struct ccp_aes_req_ctx *rctx = skcipher_request_ctx(req);
        unsigned int ccpversion = ccp_version();
        unsigned int fallback = 0;
        unsigned int unit;
        if (!ctx->u.aes.key_len)
                return -EINVAL;
 
-       if (!req->info)
+       if (!req->iv)
                return -EINVAL;
 
        /* Check conditions under which the CCP can fulfill a request. The
         */
        unit_size = CCP_XTS_AES_UNIT_SIZE__LAST;
        for (unit = 0; unit < ARRAY_SIZE(xts_unit_sizes); unit++) {
-               if (req->nbytes == xts_unit_sizes[unit].size) {
+               if (req->cryptlen == xts_unit_sizes[unit].size) {
                        unit_size = unit;
                        break;
                }
                skcipher_request_set_callback(subreq, req->base.flags,
                                              NULL, NULL);
                skcipher_request_set_crypt(subreq, req->src, req->dst,
-                                          req->nbytes, req->info);
+                                          req->cryptlen, req->iv);
                ret = encrypt ? crypto_skcipher_encrypt(subreq) :
                                crypto_skcipher_decrypt(subreq);
                skcipher_request_zero(subreq);
                return ret;
        }
 
-       memcpy(rctx->iv, req->info, AES_BLOCK_SIZE);
+       memcpy(rctx->iv, req->iv, AES_BLOCK_SIZE);
        sg_init_one(&rctx->iv_sg, rctx->iv, AES_BLOCK_SIZE);
 
        memset(&rctx->cmd, 0, sizeof(rctx->cmd));
        rctx->cmd.u.xts.iv = &rctx->iv_sg;
        rctx->cmd.u.xts.iv_len = AES_BLOCK_SIZE;
        rctx->cmd.u.xts.src = req->src;
-       rctx->cmd.u.xts.src_len = req->nbytes;
+       rctx->cmd.u.xts.src_len = req->cryptlen;
        rctx->cmd.u.xts.dst = req->dst;
 
        ret = ccp_crypto_enqueue_request(&req->base, &rctx->cmd);
        return ret;
 }
 
-static int ccp_aes_xts_encrypt(struct ablkcipher_request *req)
+static int ccp_aes_xts_encrypt(struct skcipher_request *req)
 {
        return ccp_aes_xts_crypt(req, 1);
 }
 
-static int ccp_aes_xts_decrypt(struct ablkcipher_request *req)
+static int ccp_aes_xts_decrypt(struct skcipher_request *req)
 {
        return ccp_aes_xts_crypt(req, 0);
 }
 
-static int ccp_aes_xts_cra_init(struct crypto_tfm *tfm)
+static int ccp_aes_xts_init_tfm(struct crypto_skcipher *tfm)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(tfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
        struct crypto_sync_skcipher *fallback_tfm;
 
        ctx->complete = ccp_aes_xts_complete;
        }
        ctx->u.aes.tfm_skcipher = fallback_tfm;
 
-       tfm->crt_ablkcipher.reqsize = sizeof(struct ccp_aes_req_ctx);
+       crypto_skcipher_set_reqsize(tfm, sizeof(struct ccp_aes_req_ctx));
 
        return 0;
 }
 
-static void ccp_aes_xts_cra_exit(struct crypto_tfm *tfm)
+static void ccp_aes_xts_exit_tfm(struct crypto_skcipher *tfm)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(tfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
 
        crypto_free_sync_skcipher(ctx->u.aes.tfm_skcipher);
 }
 static int ccp_register_aes_xts_alg(struct list_head *head,
                                    const struct ccp_aes_xts_def *def)
 {
-       struct ccp_crypto_ablkcipher_alg *ccp_alg;
-       struct crypto_alg *alg;
+       struct ccp_crypto_skcipher_alg *ccp_alg;
+       struct skcipher_alg *alg;
        int ret;
 
        ccp_alg = kzalloc(sizeof(*ccp_alg), GFP_KERNEL);
 
        alg = &ccp_alg->alg;
 
-       snprintf(alg->cra_name, CRYPTO_MAX_ALG_NAME, "%s", def->name);
-       snprintf(alg->cra_driver_name, CRYPTO_MAX_ALG_NAME, "%s",
+       snprintf(alg->base.cra_name, CRYPTO_MAX_ALG_NAME, "%s", def->name);
+       snprintf(alg->base.cra_driver_name, CRYPTO_MAX_ALG_NAME, "%s",
                 def->drv_name);
-       alg->cra_flags = CRYPTO_ALG_TYPE_ABLKCIPHER | CRYPTO_ALG_ASYNC |
-                        CRYPTO_ALG_KERN_DRIVER_ONLY |
-                        CRYPTO_ALG_NEED_FALLBACK;
-       alg->cra_blocksize = AES_BLOCK_SIZE;
-       alg->cra_ctxsize = sizeof(struct ccp_ctx);
-       alg->cra_priority = CCP_CRA_PRIORITY;
-       alg->cra_type = &crypto_ablkcipher_type;
-       alg->cra_ablkcipher.setkey = ccp_aes_xts_setkey;
-       alg->cra_ablkcipher.encrypt = ccp_aes_xts_encrypt;
-       alg->cra_ablkcipher.decrypt = ccp_aes_xts_decrypt;
-       alg->cra_ablkcipher.min_keysize = AES_MIN_KEY_SIZE * 2;
-       alg->cra_ablkcipher.max_keysize = AES_MAX_KEY_SIZE * 2;
-       alg->cra_ablkcipher.ivsize = AES_BLOCK_SIZE;
-       alg->cra_init = ccp_aes_xts_cra_init;
-       alg->cra_exit = ccp_aes_xts_cra_exit;
-       alg->cra_module = THIS_MODULE;
-
-       ret = crypto_register_alg(alg);
+       alg->base.cra_flags     = CRYPTO_ALG_ASYNC |
+                                 CRYPTO_ALG_KERN_DRIVER_ONLY |
+                                 CRYPTO_ALG_NEED_FALLBACK;
+       alg->base.cra_blocksize = AES_BLOCK_SIZE;
+       alg->base.cra_ctxsize   = sizeof(struct ccp_ctx);
+       alg->base.cra_priority  = CCP_CRA_PRIORITY;
+       alg->base.cra_module    = THIS_MODULE;
+
+       alg->setkey             = ccp_aes_xts_setkey;
+       alg->encrypt            = ccp_aes_xts_encrypt;
+       alg->decrypt            = ccp_aes_xts_decrypt;
+       alg->min_keysize        = AES_MIN_KEY_SIZE * 2;
+       alg->max_keysize        = AES_MAX_KEY_SIZE * 2;
+       alg->ivsize             = AES_BLOCK_SIZE;
+       alg->init               = ccp_aes_xts_init_tfm;
+       alg->exit               = ccp_aes_xts_exit_tfm;
+
+       ret = crypto_register_skcipher(alg);
        if (ret) {
-               pr_err("%s ablkcipher algorithm registration error (%d)\n",
-                      alg->cra_name, ret);
+               pr_err("%s skcipher algorithm registration error (%d)\n",
+                      alg->base.cra_name, ret);
                kfree(ccp_alg);
                return ret;
        }
 
 
 static int ccp_aes_complete(struct crypto_async_request *async_req, int ret)
 {
-       struct ablkcipher_request *req = ablkcipher_request_cast(async_req);
+       struct skcipher_request *req = skcipher_request_cast(async_req);
        struct ccp_ctx *ctx = crypto_tfm_ctx(req->base.tfm);
-       struct ccp_aes_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct ccp_aes_req_ctx *rctx = skcipher_request_ctx(req);
 
        if (ret)
                return ret;
 
        if (ctx->u.aes.mode != CCP_AES_MODE_ECB)
-               memcpy(req->info, rctx->iv, AES_BLOCK_SIZE);
+               memcpy(req->iv, rctx->iv, AES_BLOCK_SIZE);
 
        return 0;
 }
 
-static int ccp_aes_setkey(struct crypto_ablkcipher *tfm, const u8 *key,
+static int ccp_aes_setkey(struct crypto_skcipher *tfm, const u8 *key,
                          unsigned int key_len)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(crypto_ablkcipher_tfm(tfm));
-       struct ccp_crypto_ablkcipher_alg *alg =
-               ccp_crypto_ablkcipher_alg(crypto_ablkcipher_tfm(tfm));
+       struct ccp_crypto_skcipher_alg *alg = ccp_crypto_skcipher_alg(tfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
 
        switch (key_len) {
        case AES_KEYSIZE_128:
                ctx->u.aes.type = CCP_AES_TYPE_256;
                break;
        default:
-               crypto_ablkcipher_set_flags(tfm, CRYPTO_TFM_RES_BAD_KEY_LEN);
+               crypto_skcipher_set_flags(tfm, CRYPTO_TFM_RES_BAD_KEY_LEN);
                return -EINVAL;
        }
        ctx->u.aes.mode = alg->mode;
        return 0;
 }
 
-static int ccp_aes_crypt(struct ablkcipher_request *req, bool encrypt)
+static int ccp_aes_crypt(struct skcipher_request *req, bool encrypt)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(req->base.tfm);
-       struct ccp_aes_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct crypto_skcipher *tfm = crypto_skcipher_reqtfm(req);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
+       struct ccp_aes_req_ctx *rctx = skcipher_request_ctx(req);
        struct scatterlist *iv_sg = NULL;
        unsigned int iv_len = 0;
        int ret;
 
        if (((ctx->u.aes.mode == CCP_AES_MODE_ECB) ||
             (ctx->u.aes.mode == CCP_AES_MODE_CBC)) &&
-           (req->nbytes & (AES_BLOCK_SIZE - 1)))
+           (req->cryptlen & (AES_BLOCK_SIZE - 1)))
                return -EINVAL;
 
        if (ctx->u.aes.mode != CCP_AES_MODE_ECB) {
-               if (!req->info)
+               if (!req->iv)
                        return -EINVAL;
 
-               memcpy(rctx->iv, req->info, AES_BLOCK_SIZE);
+               memcpy(rctx->iv, req->iv, AES_BLOCK_SIZE);
                iv_sg = &rctx->iv_sg;
                iv_len = AES_BLOCK_SIZE;
                sg_init_one(iv_sg, rctx->iv, iv_len);
        rctx->cmd.u.aes.iv = iv_sg;
        rctx->cmd.u.aes.iv_len = iv_len;
        rctx->cmd.u.aes.src = req->src;
-       rctx->cmd.u.aes.src_len = req->nbytes;
+       rctx->cmd.u.aes.src_len = req->cryptlen;
        rctx->cmd.u.aes.dst = req->dst;
 
        ret = ccp_crypto_enqueue_request(&req->base, &rctx->cmd);
        return ret;
 }
 
-static int ccp_aes_encrypt(struct ablkcipher_request *req)
+static int ccp_aes_encrypt(struct skcipher_request *req)
 {
        return ccp_aes_crypt(req, true);
 }
 
-static int ccp_aes_decrypt(struct ablkcipher_request *req)
+static int ccp_aes_decrypt(struct skcipher_request *req)
 {
        return ccp_aes_crypt(req, false);
 }
 
-static int ccp_aes_cra_init(struct crypto_tfm *tfm)
+static int ccp_aes_init_tfm(struct crypto_skcipher *tfm)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(tfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
 
        ctx->complete = ccp_aes_complete;
        ctx->u.aes.key_len = 0;
 
-       tfm->crt_ablkcipher.reqsize = sizeof(struct ccp_aes_req_ctx);
+       crypto_skcipher_set_reqsize(tfm, sizeof(struct ccp_aes_req_ctx));
 
        return 0;
 }
 
-static void ccp_aes_cra_exit(struct crypto_tfm *tfm)
-{
-}
-
 static int ccp_aes_rfc3686_complete(struct crypto_async_request *async_req,
                                    int ret)
 {
-       struct ablkcipher_request *req = ablkcipher_request_cast(async_req);
-       struct ccp_aes_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct skcipher_request *req = skcipher_request_cast(async_req);
+       struct ccp_aes_req_ctx *rctx = skcipher_request_ctx(req);
 
        /* Restore the original pointer */
-       req->info = rctx->rfc3686_info;
+       req->iv = rctx->rfc3686_info;
 
        return ccp_aes_complete(async_req, ret);
 }
 
-static int ccp_aes_rfc3686_setkey(struct crypto_ablkcipher *tfm, const u8 *key,
+static int ccp_aes_rfc3686_setkey(struct crypto_skcipher *tfm, const u8 *key,
                                  unsigned int key_len)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(crypto_ablkcipher_tfm(tfm));
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
 
        if (key_len < CTR_RFC3686_NONCE_SIZE)
                return -EINVAL;
        return ccp_aes_setkey(tfm, key, key_len);
 }
 
-static int ccp_aes_rfc3686_crypt(struct ablkcipher_request *req, bool encrypt)
+static int ccp_aes_rfc3686_crypt(struct skcipher_request *req, bool encrypt)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(req->base.tfm);
-       struct ccp_aes_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct crypto_skcipher *tfm = crypto_skcipher_reqtfm(req);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
+       struct ccp_aes_req_ctx *rctx = skcipher_request_ctx(req);
        u8 *iv;
 
        /* Initialize the CTR block */
        memcpy(iv, ctx->u.aes.nonce, CTR_RFC3686_NONCE_SIZE);
 
        iv += CTR_RFC3686_NONCE_SIZE;
-       memcpy(iv, req->info, CTR_RFC3686_IV_SIZE);
+       memcpy(iv, req->iv, CTR_RFC3686_IV_SIZE);
 
        iv += CTR_RFC3686_IV_SIZE;
        *(__be32 *)iv = cpu_to_be32(1);
 
        /* Point to the new IV */
-       rctx->rfc3686_info = req->info;
-       req->info = rctx->rfc3686_iv;
+       rctx->rfc3686_info = req->iv;
+       req->iv = rctx->rfc3686_iv;
 
        return ccp_aes_crypt(req, encrypt);
 }
 
-static int ccp_aes_rfc3686_encrypt(struct ablkcipher_request *req)
+static int ccp_aes_rfc3686_encrypt(struct skcipher_request *req)
 {
        return ccp_aes_rfc3686_crypt(req, true);
 }
 
-static int ccp_aes_rfc3686_decrypt(struct ablkcipher_request *req)
+static int ccp_aes_rfc3686_decrypt(struct skcipher_request *req)
 {
        return ccp_aes_rfc3686_crypt(req, false);
 }
 
-static int ccp_aes_rfc3686_cra_init(struct crypto_tfm *tfm)
+static int ccp_aes_rfc3686_init_tfm(struct crypto_skcipher *tfm)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(tfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
 
        ctx->complete = ccp_aes_rfc3686_complete;
        ctx->u.aes.key_len = 0;
 
-       tfm->crt_ablkcipher.reqsize = sizeof(struct ccp_aes_req_ctx);
+       crypto_skcipher_set_reqsize(tfm, sizeof(struct ccp_aes_req_ctx));
 
        return 0;
 }
 
-static void ccp_aes_rfc3686_cra_exit(struct crypto_tfm *tfm)
-{
-}
-
-static struct crypto_alg ccp_aes_defaults = {
-       .cra_flags      = CRYPTO_ALG_TYPE_ABLKCIPHER |
-                         CRYPTO_ALG_ASYNC |
-                         CRYPTO_ALG_KERN_DRIVER_ONLY |
-                         CRYPTO_ALG_NEED_FALLBACK,
-       .cra_blocksize  = AES_BLOCK_SIZE,
-       .cra_ctxsize    = sizeof(struct ccp_ctx),
-       .cra_priority   = CCP_CRA_PRIORITY,
-       .cra_type       = &crypto_ablkcipher_type,
-       .cra_init       = ccp_aes_cra_init,
-       .cra_exit       = ccp_aes_cra_exit,
-       .cra_module     = THIS_MODULE,
-       .cra_ablkcipher = {
-               .setkey         = ccp_aes_setkey,
-               .encrypt        = ccp_aes_encrypt,
-               .decrypt        = ccp_aes_decrypt,
-               .min_keysize    = AES_MIN_KEY_SIZE,
-               .max_keysize    = AES_MAX_KEY_SIZE,
-       },
+static const struct skcipher_alg ccp_aes_defaults = {
+       .setkey                 = ccp_aes_setkey,
+       .encrypt                = ccp_aes_encrypt,
+       .decrypt                = ccp_aes_decrypt,
+       .min_keysize            = AES_MIN_KEY_SIZE,
+       .max_keysize            = AES_MAX_KEY_SIZE,
+       .init                   = ccp_aes_init_tfm,
+
+       .base.cra_flags         = CRYPTO_ALG_ASYNC |
+                                 CRYPTO_ALG_KERN_DRIVER_ONLY |
+                                 CRYPTO_ALG_NEED_FALLBACK,
+       .base.cra_blocksize     = AES_BLOCK_SIZE,
+       .base.cra_ctxsize       = sizeof(struct ccp_ctx),
+       .base.cra_priority      = CCP_CRA_PRIORITY,
+       .base.cra_module        = THIS_MODULE,
 };
 
-static struct crypto_alg ccp_aes_rfc3686_defaults = {
-       .cra_flags      = CRYPTO_ALG_TYPE_ABLKCIPHER |
-                          CRYPTO_ALG_ASYNC |
-                          CRYPTO_ALG_KERN_DRIVER_ONLY |
-                          CRYPTO_ALG_NEED_FALLBACK,
-       .cra_blocksize  = CTR_RFC3686_BLOCK_SIZE,
-       .cra_ctxsize    = sizeof(struct ccp_ctx),
-       .cra_priority   = CCP_CRA_PRIORITY,
-       .cra_type       = &crypto_ablkcipher_type,
-       .cra_init       = ccp_aes_rfc3686_cra_init,
-       .cra_exit       = ccp_aes_rfc3686_cra_exit,
-       .cra_module     = THIS_MODULE,
-       .cra_ablkcipher = {
-               .setkey         = ccp_aes_rfc3686_setkey,
-               .encrypt        = ccp_aes_rfc3686_encrypt,
-               .decrypt        = ccp_aes_rfc3686_decrypt,
-               .min_keysize    = AES_MIN_KEY_SIZE + CTR_RFC3686_NONCE_SIZE,
-               .max_keysize    = AES_MAX_KEY_SIZE + CTR_RFC3686_NONCE_SIZE,
-       },
+static const struct skcipher_alg ccp_aes_rfc3686_defaults = {
+       .setkey                 = ccp_aes_rfc3686_setkey,
+       .encrypt                = ccp_aes_rfc3686_encrypt,
+       .decrypt                = ccp_aes_rfc3686_decrypt,
+       .min_keysize            = AES_MIN_KEY_SIZE + CTR_RFC3686_NONCE_SIZE,
+       .max_keysize            = AES_MAX_KEY_SIZE + CTR_RFC3686_NONCE_SIZE,
+       .init                   = ccp_aes_rfc3686_init_tfm,
+
+       .base.cra_flags         = CRYPTO_ALG_ASYNC |
+                                 CRYPTO_ALG_KERN_DRIVER_ONLY |
+                                 CRYPTO_ALG_NEED_FALLBACK,
+       .base.cra_blocksize     = CTR_RFC3686_BLOCK_SIZE,
+       .base.cra_ctxsize       = sizeof(struct ccp_ctx),
+       .base.cra_priority      = CCP_CRA_PRIORITY,
+       .base.cra_module        = THIS_MODULE,
 };
 
 struct ccp_aes_def {
        const char *driver_name;
        unsigned int blocksize;
        unsigned int ivsize;
-       struct crypto_alg *alg_defaults;
+       const struct skcipher_alg *alg_defaults;
 };
 
 static struct ccp_aes_def aes_algs[] = {
 static int ccp_register_aes_alg(struct list_head *head,
                                const struct ccp_aes_def *def)
 {
-       struct ccp_crypto_ablkcipher_alg *ccp_alg;
-       struct crypto_alg *alg;
+       struct ccp_crypto_skcipher_alg *ccp_alg;
+       struct skcipher_alg *alg;
        int ret;
 
        ccp_alg = kzalloc(sizeof(*ccp_alg), GFP_KERNEL);
        /* Copy the defaults and override as necessary */
        alg = &ccp_alg->alg;
        *alg = *def->alg_defaults;
-       snprintf(alg->cra_name, CRYPTO_MAX_ALG_NAME, "%s", def->name);
-       snprintf(alg->cra_driver_name, CRYPTO_MAX_ALG_NAME, "%s",
+       snprintf(alg->base.cra_name, CRYPTO_MAX_ALG_NAME, "%s", def->name);
+       snprintf(alg->base.cra_driver_name, CRYPTO_MAX_ALG_NAME, "%s",
                 def->driver_name);
-       alg->cra_blocksize = def->blocksize;
-       alg->cra_ablkcipher.ivsize = def->ivsize;
+       alg->base.cra_blocksize = def->blocksize;
+       alg->ivsize = def->ivsize;
 
-       ret = crypto_register_alg(alg);
+       ret = crypto_register_skcipher(alg);
        if (ret) {
-               pr_err("%s ablkcipher algorithm registration error (%d)\n",
-                      alg->cra_name, ret);
+               pr_err("%s skcipher algorithm registration error (%d)\n",
+                      alg->base.cra_name, ret);
                kfree(ccp_alg);
                return ret;
        }
 
 
 static int ccp_des3_complete(struct crypto_async_request *async_req, int ret)
 {
-       struct ablkcipher_request *req = ablkcipher_request_cast(async_req);
+       struct skcipher_request *req = skcipher_request_cast(async_req);
        struct ccp_ctx *ctx = crypto_tfm_ctx(req->base.tfm);
-       struct ccp_des3_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct ccp_des3_req_ctx *rctx = skcipher_request_ctx(req);
 
        if (ret)
                return ret;
 
        if (ctx->u.des3.mode != CCP_DES3_MODE_ECB)
-               memcpy(req->info, rctx->iv, DES3_EDE_BLOCK_SIZE);
+               memcpy(req->iv, rctx->iv, DES3_EDE_BLOCK_SIZE);
 
        return 0;
 }
 
-static int ccp_des3_setkey(struct crypto_ablkcipher *tfm, const u8 *key,
+static int ccp_des3_setkey(struct crypto_skcipher *tfm, const u8 *key,
                unsigned int key_len)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(crypto_ablkcipher_tfm(tfm));
-       struct ccp_crypto_ablkcipher_alg *alg =
-               ccp_crypto_ablkcipher_alg(crypto_ablkcipher_tfm(tfm));
+       struct ccp_crypto_skcipher_alg *alg = ccp_crypto_skcipher_alg(tfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
        int err;
 
-       err = verify_ablkcipher_des3_key(tfm, key);
+       err = verify_skcipher_des3_key(tfm, key);
        if (err)
                return err;
 
        return 0;
 }
 
-static int ccp_des3_crypt(struct ablkcipher_request *req, bool encrypt)
+static int ccp_des3_crypt(struct skcipher_request *req, bool encrypt)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(req->base.tfm);
-       struct ccp_des3_req_ctx *rctx = ablkcipher_request_ctx(req);
+       struct crypto_skcipher *tfm = crypto_skcipher_reqtfm(req);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
+       struct ccp_des3_req_ctx *rctx = skcipher_request_ctx(req);
        struct scatterlist *iv_sg = NULL;
        unsigned int iv_len = 0;
        int ret;
 
        if (((ctx->u.des3.mode == CCP_DES3_MODE_ECB) ||
             (ctx->u.des3.mode == CCP_DES3_MODE_CBC)) &&
-           (req->nbytes & (DES3_EDE_BLOCK_SIZE - 1)))
+           (req->cryptlen & (DES3_EDE_BLOCK_SIZE - 1)))
                return -EINVAL;
 
        if (ctx->u.des3.mode != CCP_DES3_MODE_ECB) {
-               if (!req->info)
+               if (!req->iv)
                        return -EINVAL;
 
-               memcpy(rctx->iv, req->info, DES3_EDE_BLOCK_SIZE);
+               memcpy(rctx->iv, req->iv, DES3_EDE_BLOCK_SIZE);
                iv_sg = &rctx->iv_sg;
                iv_len = DES3_EDE_BLOCK_SIZE;
                sg_init_one(iv_sg, rctx->iv, iv_len);
        rctx->cmd.u.des3.iv = iv_sg;
        rctx->cmd.u.des3.iv_len = iv_len;
        rctx->cmd.u.des3.src = req->src;
-       rctx->cmd.u.des3.src_len = req->nbytes;
+       rctx->cmd.u.des3.src_len = req->cryptlen;
        rctx->cmd.u.des3.dst = req->dst;
 
        ret = ccp_crypto_enqueue_request(&req->base, &rctx->cmd);
        return ret;
 }
 
-static int ccp_des3_encrypt(struct ablkcipher_request *req)
+static int ccp_des3_encrypt(struct skcipher_request *req)
 {
        return ccp_des3_crypt(req, true);
 }
 
-static int ccp_des3_decrypt(struct ablkcipher_request *req)
+static int ccp_des3_decrypt(struct skcipher_request *req)
 {
        return ccp_des3_crypt(req, false);
 }
 
-static int ccp_des3_cra_init(struct crypto_tfm *tfm)
+static int ccp_des3_init_tfm(struct crypto_skcipher *tfm)
 {
-       struct ccp_ctx *ctx = crypto_tfm_ctx(tfm);
+       struct ccp_ctx *ctx = crypto_skcipher_ctx(tfm);
 
        ctx->complete = ccp_des3_complete;
        ctx->u.des3.key_len = 0;
 
-       tfm->crt_ablkcipher.reqsize = sizeof(struct ccp_des3_req_ctx);
+       crypto_skcipher_set_reqsize(tfm, sizeof(struct ccp_des3_req_ctx));
 
        return 0;
 }
 
-static void ccp_des3_cra_exit(struct crypto_tfm *tfm)
-{
-}
-
-static struct crypto_alg ccp_des3_defaults = {
-       .cra_flags      = CRYPTO_ALG_TYPE_ABLKCIPHER |
-               CRYPTO_ALG_ASYNC |
-               CRYPTO_ALG_KERN_DRIVER_ONLY |
-               CRYPTO_ALG_NEED_FALLBACK,
-       .cra_blocksize  = DES3_EDE_BLOCK_SIZE,
-       .cra_ctxsize    = sizeof(struct ccp_ctx),
-       .cra_priority   = CCP_CRA_PRIORITY,
-       .cra_type       = &crypto_ablkcipher_type,
-       .cra_init       = ccp_des3_cra_init,
-       .cra_exit       = ccp_des3_cra_exit,
-       .cra_module     = THIS_MODULE,
-       .cra_ablkcipher = {
-               .setkey         = ccp_des3_setkey,
-               .encrypt        = ccp_des3_encrypt,
-               .decrypt        = ccp_des3_decrypt,
-               .min_keysize    = DES3_EDE_KEY_SIZE,
-               .max_keysize    = DES3_EDE_KEY_SIZE,
-       },
+static const struct skcipher_alg ccp_des3_defaults = {
+       .setkey                 = ccp_des3_setkey,
+       .encrypt                = ccp_des3_encrypt,
+       .decrypt                = ccp_des3_decrypt,
+       .min_keysize            = DES3_EDE_KEY_SIZE,
+       .max_keysize            = DES3_EDE_KEY_SIZE,
+       .init                   = ccp_des3_init_tfm,
+
+       .base.cra_flags         = CRYPTO_ALG_ASYNC |
+                                 CRYPTO_ALG_KERN_DRIVER_ONLY |
+                                 CRYPTO_ALG_NEED_FALLBACK,
+       .base.cra_blocksize     = DES3_EDE_BLOCK_SIZE,
+       .base.cra_ctxsize       = sizeof(struct ccp_ctx),
+       .base.cra_priority      = CCP_CRA_PRIORITY,
+       .base.cra_module        = THIS_MODULE,
 };
 
 struct ccp_des3_def {
        const char *driver_name;
        unsigned int blocksize;
        unsigned int ivsize;
-       struct crypto_alg *alg_defaults;
+       const struct skcipher_alg *alg_defaults;
 };
 
-static struct ccp_des3_def des3_algs[] = {
+static const struct ccp_des3_def des3_algs[] = {
        {
                .mode           = CCP_DES3_MODE_ECB,
                .version        = CCP_VERSION(5, 0),
 static int ccp_register_des3_alg(struct list_head *head,
                                 const struct ccp_des3_def *def)
 {
-       struct ccp_crypto_ablkcipher_alg *ccp_alg;
-       struct crypto_alg *alg;
+       struct ccp_crypto_skcipher_alg *ccp_alg;
+       struct skcipher_alg *alg;
        int ret;
 
        ccp_alg = kzalloc(sizeof(*ccp_alg), GFP_KERNEL);
        /* Copy the defaults and override as necessary */
        alg = &ccp_alg->alg;
        *alg = *def->alg_defaults;
-       snprintf(alg->cra_name, CRYPTO_MAX_ALG_NAME, "%s", def->name);
-       snprintf(alg->cra_driver_name, CRYPTO_MAX_ALG_NAME, "%s",
+       snprintf(alg->base.cra_name, CRYPTO_MAX_ALG_NAME, "%s", def->name);
+       snprintf(alg->base.cra_driver_name, CRYPTO_MAX_ALG_NAME, "%s",
                        def->driver_name);
-       alg->cra_blocksize = def->blocksize;
-       alg->cra_ablkcipher.ivsize = def->ivsize;
+       alg->base.cra_blocksize = def->blocksize;
+       alg->ivsize = def->ivsize;
 
-       ret = crypto_register_alg(alg);
+       ret = crypto_register_skcipher(alg);
        if (ret) {
-               pr_err("%s ablkcipher algorithm registration error (%d)\n",
-                               alg->cra_name, ret);
+               pr_err("%s skcipher algorithm registration error (%d)\n",
+                               alg->base.cra_name, ret);
                kfree(ccp_alg);
                return ret;
        }
 
 
 /* List heads for the supported algorithms */
 static LIST_HEAD(hash_algs);
-static LIST_HEAD(cipher_algs);
+static LIST_HEAD(skcipher_algs);
 static LIST_HEAD(aead_algs);
 static LIST_HEAD(akcipher_algs);
 
        int ret;
 
        if (!aes_disable) {
-               ret = ccp_register_aes_algs(&cipher_algs);
+               ret = ccp_register_aes_algs(&skcipher_algs);
                if (ret)
                        return ret;
 
                if (ret)
                        return ret;
 
-               ret = ccp_register_aes_xts_algs(&cipher_algs);
+               ret = ccp_register_aes_xts_algs(&skcipher_algs);
                if (ret)
                        return ret;
 
        }
 
        if (!des3_disable) {
-               ret = ccp_register_des3_algs(&cipher_algs);
+               ret = ccp_register_des3_algs(&skcipher_algs);
                if (ret)
                        return ret;
        }
 static void ccp_unregister_algs(void)
 {
        struct ccp_crypto_ahash_alg *ahash_alg, *ahash_tmp;
-       struct ccp_crypto_ablkcipher_alg *ablk_alg, *ablk_tmp;
+       struct ccp_crypto_skcipher_alg *ablk_alg, *ablk_tmp;
        struct ccp_crypto_aead *aead_alg, *aead_tmp;
        struct ccp_crypto_akcipher_alg *akc_alg, *akc_tmp;
 
                kfree(ahash_alg);
        }
 
-       list_for_each_entry_safe(ablk_alg, ablk_tmp, &cipher_algs, entry) {
-               crypto_unregister_alg(&ablk_alg->alg);
+       list_for_each_entry_safe(ablk_alg, ablk_tmp, &skcipher_algs, entry) {
+               crypto_unregister_skcipher(&ablk_alg->alg);
                list_del(&ablk_alg->entry);
                kfree(ablk_alg);
        }
 
 #include <crypto/hash.h>
 #include <crypto/sha.h>
 #include <crypto/akcipher.h>
+#include <crypto/skcipher.h>
 #include <crypto/internal/rsa.h>
 
 /* We want the module name in front of our messages */
 
 #define CCP_CRA_PRIORITY       300
 
-struct ccp_crypto_ablkcipher_alg {
+struct ccp_crypto_skcipher_alg {
        struct list_head entry;
 
        u32 mode;
 
-       struct crypto_alg alg;
+       struct skcipher_alg alg;
 };
 
 struct ccp_crypto_aead {
        struct akcipher_alg alg;
 };
 
-static inline struct ccp_crypto_ablkcipher_alg *
-       ccp_crypto_ablkcipher_alg(struct crypto_tfm *tfm)
+static inline struct ccp_crypto_skcipher_alg *
+       ccp_crypto_skcipher_alg(struct crypto_skcipher *tfm)
 {
-       struct crypto_alg *alg = tfm->__crt_alg;
+       struct skcipher_alg *alg = crypto_skcipher_alg(tfm);
 
-       return container_of(alg, struct ccp_crypto_ablkcipher_alg, alg);
+       return container_of(alg, struct ccp_crypto_skcipher_alg, alg);
 }
 
 static inline struct ccp_crypto_ahash_alg *