#define CESA_TDMA_DUMMY                                0
 #define CESA_TDMA_DATA                         1
 #define CESA_TDMA_OP                           2
+#define CESA_TDMA_IV                           3
 
 /**
  * struct mv_cesa_tdma_desc - TDMA descriptor
        struct dma_pool *op_pool;
        struct dma_pool *cache_pool;
        struct dma_pool *padding_pool;
+       struct dma_pool *iv_pool;
 };
 
 /**
        memset(chain, 0, sizeof(*chain));
 }
 
+int mv_cesa_dma_add_iv_op(struct mv_cesa_tdma_chain *chain, dma_addr_t src,
+                         u32 size, u32 flags, gfp_t gfp_flags);
+
 struct mv_cesa_op_ctx *mv_cesa_dma_add_op(struct mv_cesa_tdma_chain *chain,
                                        const struct mv_cesa_op_ctx *op_templ,
                                        bool skip_ctx,
 
        struct mv_cesa_ablkcipher_std_req *sreq = &creq->req.std;
        struct mv_cesa_engine *engine = sreq->base.engine;
        size_t len;
+       unsigned int ivsize;
 
        len = sg_pcopy_from_buffer(req->dst, creq->dst_nents,
                                   engine->sram + CESA_SA_DATA_SRAM_OFFSET,
        if (sreq->offset < req->nbytes)
                return -EINPROGRESS;
 
+       ivsize = crypto_ablkcipher_ivsize(crypto_ablkcipher_reqtfm(req));
+       memcpy_fromio(req->info,
+                     engine->sram + CESA_SA_CRYPT_IV_SRAM_OFFSET, ivsize);
+
        return 0;
 }
 
 {
        struct ablkcipher_request *ablkreq = ablkcipher_request_cast(req);
        struct mv_cesa_ablkcipher_req *creq = ablkcipher_request_ctx(ablkreq);
-       struct mv_cesa_ablkcipher_std_req *sreq = &creq->req.std;
-       struct mv_cesa_engine *engine = sreq->base.engine;
+       struct mv_cesa_tdma_req *dreq;
+       unsigned int ivsize;
        int ret;
 
-       if (creq->req.base.type == CESA_DMA_REQ)
-               ret = mv_cesa_dma_process(&creq->req.dma, status);
-       else
-               ret = mv_cesa_ablkcipher_std_process(ablkreq, status);
+       if (creq->req.base.type == CESA_STD_REQ)
+               return mv_cesa_ablkcipher_std_process(ablkreq, status);
 
+       ret = mv_cesa_dma_process(&creq->req.dma, status);
        if (ret)
                return ret;
 
-       memcpy_fromio(ablkreq->info,
-                     engine->sram + CESA_SA_CRYPT_IV_SRAM_OFFSET,
-                     crypto_ablkcipher_ivsize(crypto_ablkcipher_reqtfm(ablkreq)));
+       dreq = &creq->req.dma;
+       ivsize = crypto_ablkcipher_ivsize(crypto_ablkcipher_reqtfm(ablkreq));
+       memcpy_fromio(ablkreq->info, dreq->chain.last->data, ivsize);
 
        return 0;
 }
        struct mv_cesa_tdma_chain chain;
        bool skip_ctx = false;
        int ret;
+       unsigned int ivsize;
 
        dreq->base.type = CESA_DMA_REQ;
        dreq->chain.first = NULL;
 
        } while (mv_cesa_ablkcipher_req_iter_next_op(&iter));
 
+       /* Add output data for IV */
+       ivsize = crypto_ablkcipher_ivsize(crypto_ablkcipher_reqtfm(req));
+       ret = mv_cesa_dma_add_iv_op(&chain, CESA_SA_CRYPT_IV_SRAM_OFFSET,
+                                   ivsize, CESA_TDMA_SRC_IN_SRAM, flags);
+
+       if (ret)
+               goto err_free_tdma;
+
        dreq->chain = chain;
 
        return 0;
 
                if (type == CESA_TDMA_OP)
                        dma_pool_free(cesa_dev->dma->op_pool, tdma->op,
                                      le32_to_cpu(tdma->src));
+               else if (type == CESA_TDMA_IV)
+                       dma_pool_free(cesa_dev->dma->iv_pool, tdma->data,
+                                     le32_to_cpu(tdma->dst));
 
                tdma = tdma->next;
                dma_pool_free(cesa_dev->dma->tdma_desc_pool, old_tdma,
        return new_tdma;
 }
 
+int mv_cesa_dma_add_iv_op(struct mv_cesa_tdma_chain *chain, dma_addr_t src,
+                         u32 size, u32 flags, gfp_t gfp_flags)
+{
+
+       struct mv_cesa_tdma_desc *tdma;
+       u8 *iv;
+       dma_addr_t dma_handle;
+
+       tdma = mv_cesa_dma_add_desc(chain, gfp_flags);
+       if (IS_ERR(tdma))
+               return PTR_ERR(tdma);
+
+       iv = dma_pool_alloc(cesa_dev->dma->iv_pool, flags, &dma_handle);
+       if (!iv)
+               return -ENOMEM;
+
+       tdma->byte_cnt = cpu_to_le32(size | BIT(31));
+       tdma->src = src;
+       tdma->dst = cpu_to_le32(dma_handle);
+       tdma->data = iv;
+
+       flags &= (CESA_TDMA_DST_IN_SRAM | CESA_TDMA_SRC_IN_SRAM);
+       tdma->flags = flags | CESA_TDMA_IV;
+       return 0;
+}
+
 struct mv_cesa_op_ctx *mv_cesa_dma_add_op(struct mv_cesa_tdma_chain *chain,
                                        const struct mv_cesa_op_ctx *op_templ,
                                        bool skip_ctx,