int buflen_0;
        u8 buf_1[CAAM_MAX_HASH_BLOCK_SIZE] ____cacheline_aligned;
        int buflen_1;
-       u8 caam_ctx[MAX_CTX_LEN];
+       u8 caam_ctx[MAX_CTX_LEN] ____cacheline_aligned;
        int (*update)(struct ahash_request *req);
        int (*final)(struct ahash_request *req);
        int (*finup)(struct ahash_request *req);
 
 
        atomic_set(&bd->empty, BUF_NOT_EMPTY);
        complete(&bd->filled);
+
+       /* Buffer refilled, invalidate cache */
+       dma_sync_single_for_cpu(jrdev, bd->addr, RN_BUF_SIZE, DMA_FROM_DEVICE);
+
 #ifdef DEBUG
        print_hex_dump(KERN_ERR, "rng refreshed buf@: ",
                       DUMP_PREFIX_ADDRESS, 16, 4, bd->buf, RN_BUF_SIZE, 1);
 
                userdesc = jrp->entinfo[sw_idx].desc_addr_virt;
                userstatus = jrp->outring[hw_idx].jrstatus;
 
+               /*
+                * Make sure all information from the job has been obtained
+                * before telling CAAM that the job has been removed from the
+                * output ring.
+                */
+               mb();
+
                /* set done */
                wr_reg32(&jrp->rregs->outring_rmvd, 1);
 
 
        jrp->inpring[jrp->inp_ring_write_index] = desc_dma;
 
+       /*
+        * Guarantee that the descriptor's DMA address has been written to
+        * the next slot in the ring before the write index is updated, since
+        * other cores may update this index independently.
+        */
        smp_wmb();
 
        jrp->inp_ring_write_index = (jrp->inp_ring_write_index + 1) &
                                    (JOBR_DEPTH - 1);
        jrp->head = (head + 1) & (JOBR_DEPTH - 1);
 
+       /*
+        * Ensure that all job information has been written before
+        * notifying CAAM that a new job was added to the input ring.
+        */
+       wmb();
+
        wr_reg32(&jrp->rregs->inpring_jobadd, 1);
 
        spin_unlock_bh(&jrp->inplock);