return intr_cause;
 }
 
-static void mv_xor_device_clear_eoc_cause(struct mv_xor_chan *chan)
+static void mv_chan_clear_eoc_cause(struct mv_xor_chan *chan)
 {
        u32 val;
 
        writel_relaxed(val, XOR_INTR_CAUSE(chan));
 }
 
-static void mv_xor_device_clear_err_status(struct mv_xor_chan *chan)
+static void mv_chan_clear_err_status(struct mv_xor_chan *chan)
 {
        u32 val = 0xFFFF0000 >> (chan->idx * 16);
        writel_relaxed(val, XOR_INTR_CAUSE(chan));
 }
 
-static void mv_set_mode(struct mv_xor_chan *chan,
-                              enum dma_transaction_type type)
+static void mv_chan_set_mode(struct mv_xor_chan *chan,
+                            enum dma_transaction_type type)
 {
        u32 op_mode;
        u32 config = readl_relaxed(XOR_CONFIG(chan));
 }
 
 /**
- * mv_xor_free_slots - flags descriptor slots for reuse
+ * mv_chan_free_slots - flags descriptor slots for reuse
  * @slot: Slot to free
  * Caller must hold &mv_chan->lock while calling this function
  */
-static void mv_xor_free_slots(struct mv_xor_chan *mv_chan,
-                             struct mv_xor_desc_slot *slot)
+static void mv_chan_free_slots(struct mv_xor_chan *mv_chan,
+                              struct mv_xor_desc_slot *slot)
 {
        dev_dbg(mv_chan_to_devp(mv_chan), "%s %d slot %p\n",
                __func__, __LINE__, slot);
 }
 
 /*
- * mv_xor_start_new_chain - program the engine to operate on new chain headed by
- * sw_desc
+ * mv_chan_start_new_chain - program the engine to operate on new
+ * chain headed by sw_desc
  * Caller must hold &mv_chan->lock while calling this function
  */
-static void mv_xor_start_new_chain(struct mv_xor_chan *mv_chan,
-                                  struct mv_xor_desc_slot *sw_desc)
+static void mv_chan_start_new_chain(struct mv_xor_chan *mv_chan,
+                                   struct mv_xor_desc_slot *sw_desc)
 {
        dev_dbg(mv_chan_to_devp(mv_chan), "%s %d: sw_desc %p\n",
                __func__, __LINE__, sw_desc);
 }
 
 static dma_cookie_t
-mv_xor_run_tx_complete_actions(struct mv_xor_desc_slot *desc,
-       struct mv_xor_chan *mv_chan, dma_cookie_t cookie)
+mv_desc_run_tx_complete_actions(struct mv_xor_desc_slot *desc,
+                               struct mv_xor_chan *mv_chan,
+                               dma_cookie_t cookie)
 {
        BUG_ON(desc->async_tx.cookie < 0);
 
 }
 
 static int
-mv_xor_clean_completed_slots(struct mv_xor_chan *mv_chan)
+mv_chan_clean_completed_slots(struct mv_xor_chan *mv_chan)
 {
        struct mv_xor_desc_slot *iter, *_iter;
 
 
                if (async_tx_test_ack(&iter->async_tx)) {
                        list_del(&iter->completed_node);
-                       mv_xor_free_slots(mv_chan, iter);
+                       mv_chan_free_slots(mv_chan, iter);
                }
        }
        return 0;
 }
 
 static int
-mv_xor_clean_slot(struct mv_xor_desc_slot *desc,
-       struct mv_xor_chan *mv_chan)
+mv_desc_clean_slot(struct mv_xor_desc_slot *desc,
+                  struct mv_xor_chan *mv_chan)
 {
        dev_dbg(mv_chan_to_devp(mv_chan), "%s %d: desc %p flags %d\n",
                __func__, __LINE__, desc, desc->async_tx.flags);
                return 0;
        }
 
-       mv_xor_free_slots(mv_chan, desc);
+       mv_chan_free_slots(mv_chan, desc);
        return 0;
 }
 
 /* This function must be called with the mv_xor_chan spinlock held */
-static void mv_xor_slot_cleanup(struct mv_xor_chan *mv_chan)
+static void mv_chan_slot_cleanup(struct mv_xor_chan *mv_chan)
 {
        struct mv_xor_desc_slot *iter, *_iter;
        dma_cookie_t cookie = 0;
 
        dev_dbg(mv_chan_to_devp(mv_chan), "%s %d\n", __func__, __LINE__);
        dev_dbg(mv_chan_to_devp(mv_chan), "current_desc %x\n", current_desc);
-       mv_xor_clean_completed_slots(mv_chan);
+       mv_chan_clean_completed_slots(mv_chan);
 
        /* free completed slots from the chain starting with
         * the oldest descriptor
                /* clean finished descriptors */
                hw_desc = iter->hw_desc;
                if (hw_desc->status & XOR_DESC_SUCCESS) {
-                       cookie = mv_xor_run_tx_complete_actions(iter, mv_chan,
-                                                               cookie);
+                       cookie = mv_desc_run_tx_complete_actions(iter, mv_chan,
+                                                                cookie);
 
                        /* done processing desc, clean slot */
-                       mv_xor_clean_slot(iter, mv_chan);
+                       mv_desc_clean_slot(iter, mv_chan);
 
                        /* break if we did cleaned the current */
                        if (iter->async_tx.phys == current_desc) {
                        iter = list_entry(mv_chan->chain.next,
                                          struct mv_xor_desc_slot,
                                          chain_node);
-                       mv_xor_start_new_chain(mv_chan, iter);
+                       mv_chan_start_new_chain(mv_chan, iter);
                } else {
                        if (!list_is_last(&iter->chain_node, &mv_chan->chain)) {
                                /*
                                iter = list_entry(iter->chain_node.next,
                                                  struct mv_xor_desc_slot,
                                                  chain_node);
-                               mv_xor_start_new_chain(mv_chan, iter);
+                               mv_chan_start_new_chain(mv_chan, iter);
                        } else {
                                /*
                                 * some descriptors are still waiting
        struct mv_xor_chan *chan = (struct mv_xor_chan *) data;
 
        spin_lock_bh(&chan->lock);
-       mv_xor_slot_cleanup(chan);
+       mv_chan_slot_cleanup(chan);
        spin_unlock_bh(&chan->lock);
 }
 
 static struct mv_xor_desc_slot *
-mv_xor_alloc_slot(struct mv_xor_chan *mv_chan)
+mv_chan_alloc_slot(struct mv_xor_chan *mv_chan)
 {
        struct mv_xor_desc_slot *iter, *_iter;
        int retry = 0;
        }
 
        if (new_hw_chain)
-               mv_xor_start_new_chain(mv_chan, sw_desc);
+               mv_chan_start_new_chain(mv_chan, sw_desc);
 
        spin_unlock_bh(&mv_chan->lock);
 
                __func__, src_cnt, len, &dest, flags);
 
        spin_lock_bh(&mv_chan->lock);
-       sw_desc = mv_xor_alloc_slot(mv_chan);
+       sw_desc = mv_chan_alloc_slot(mv_chan);
        if (sw_desc) {
                sw_desc->type = DMA_XOR;
                sw_desc->async_tx.flags = flags;
 
        spin_lock_bh(&mv_chan->lock);
 
-       mv_xor_slot_cleanup(mv_chan);
+       mv_chan_slot_cleanup(mv_chan);
 
        list_for_each_entry_safe(iter, _iter, &mv_chan->chain,
                                        chain_node) {
                return ret;
 
        spin_lock_bh(&mv_chan->lock);
-       mv_xor_slot_cleanup(mv_chan);
+       mv_chan_slot_cleanup(mv_chan);
        spin_unlock_bh(&mv_chan->lock);
 
        return dma_cookie_status(chan, cookie, txstate);
 }
 
-static void mv_dump_xor_regs(struct mv_xor_chan *chan)
+static void mv_chan_dump_regs(struct mv_xor_chan *chan)
 {
        u32 val;
 
        dev_err(mv_chan_to_devp(chan), "error addr   0x%08x\n", val);
 }
 
-static void mv_xor_err_interrupt_handler(struct mv_xor_chan *chan,
-                                        u32 intr_cause)
+static void mv_chan_err_interrupt_handler(struct mv_xor_chan *chan,
+                                         u32 intr_cause)
 {
        if (intr_cause & XOR_INT_ERR_DECODE) {
                dev_dbg(mv_chan_to_devp(chan), "ignoring address decode error\n");
        dev_err(mv_chan_to_devp(chan), "error on chan %d. intr cause 0x%08x\n",
                chan->idx, intr_cause);
 
-       mv_dump_xor_regs(chan);
+       mv_chan_dump_regs(chan);
        WARN_ON(1);
 }
 
        dev_dbg(mv_chan_to_devp(chan), "intr cause %x\n", intr_cause);
 
        if (intr_cause & XOR_INTR_ERRORS)
-               mv_xor_err_interrupt_handler(chan, intr_cause);
+               mv_chan_err_interrupt_handler(chan, intr_cause);
 
        tasklet_schedule(&chan->irq_tasklet);
 
-       mv_xor_device_clear_eoc_cause(chan);
+       mv_chan_clear_eoc_cause(chan);
 
        return IRQ_HANDLED;
 }
  * Perform a transaction to verify the HW works.
  */
 
-static int mv_xor_memcpy_self_test(struct mv_xor_chan *mv_chan)
+static int mv_chan_memcpy_self_test(struct mv_xor_chan *mv_chan)
 {
        int i, ret;
        void *src, *dest;
 
 #define MV_XOR_NUM_SRC_TEST 4 /* must be <= 15 */
 static int
-mv_xor_xor_self_test(struct mv_xor_chan *mv_chan)
+mv_chan_xor_self_test(struct mv_xor_chan *mv_chan)
 {
        int i, src_idx, ret;
        struct page *dest;
                     mv_chan);
 
        /* clear errors before enabling interrupts */
-       mv_xor_device_clear_err_status(mv_chan);
+       mv_chan_clear_err_status(mv_chan);
 
        ret = request_irq(mv_chan->irq, mv_xor_interrupt_handler,
                          0, dev_name(&pdev->dev), mv_chan);
 
        mv_chan_unmask_interrupts(mv_chan);
 
-       mv_set_mode(mv_chan, DMA_XOR);
+       mv_chan_set_mode(mv_chan, DMA_XOR);
 
        spin_lock_init(&mv_chan->lock);
        INIT_LIST_HEAD(&mv_chan->chain);
        list_add_tail(&mv_chan->dmachan.device_node, &dma_dev->channels);
 
        if (dma_has_cap(DMA_MEMCPY, dma_dev->cap_mask)) {
-               ret = mv_xor_memcpy_self_test(mv_chan);
+               ret = mv_chan_memcpy_self_test(mv_chan);
                dev_dbg(&pdev->dev, "memcpy self test returned %d\n", ret);
                if (ret)
                        goto err_free_irq;
        }
 
        if (dma_has_cap(DMA_XOR, dma_dev->cap_mask)) {
-               ret = mv_xor_xor_self_test(mv_chan);
+               ret = mv_chan_xor_self_test(mv_chan);
                dev_dbg(&pdev->dev, "xor self test returned %d\n", ret);
                if (ret)
                        goto err_free_irq;