#include <linux/io.h>
 #include <linux/dma-mapping.h>
 #include <linux/module.h>
+#include <linux/spinlock.h>
 #include <linux/clk.h>
 #include <linux/err.h>
 
                                                ltq_dma_membase + (z))
 
 static void __iomem *ltq_dma_membase;
+static DEFINE_SPINLOCK(ltq_dma_lock);
 
 void
 ltq_dma_enable_irq(struct ltq_dma_channel *ch)
 {
        unsigned long flags;
 
-       local_irq_save(flags);
+       spin_lock_irqsave(<q_dma_lock, flags);
        ltq_dma_w32(ch->nr, LTQ_DMA_CS);
        ltq_dma_w32_mask(0, 1 << ch->nr, LTQ_DMA_IRNEN);
-       local_irq_restore(flags);
+       spin_unlock_irqrestore(<q_dma_lock, flags);
 }
 EXPORT_SYMBOL_GPL(ltq_dma_enable_irq);
 
 {
        unsigned long flags;
 
-       local_irq_save(flags);
+       spin_lock_irqsave(<q_dma_lock, flags);
        ltq_dma_w32(ch->nr, LTQ_DMA_CS);
        ltq_dma_w32_mask(1 << ch->nr, 0, LTQ_DMA_IRNEN);
-       local_irq_restore(flags);
+       spin_unlock_irqrestore(<q_dma_lock, flags);
 }
 EXPORT_SYMBOL_GPL(ltq_dma_disable_irq);
 
 {
        unsigned long flags;
 
-       local_irq_save(flags);
+       spin_lock_irqsave(<q_dma_lock, flags);
        ltq_dma_w32(ch->nr, LTQ_DMA_CS);
        ltq_dma_w32(DMA_IRQ_ACK, LTQ_DMA_CIS);
-       local_irq_restore(flags);
+       spin_unlock_irqrestore(<q_dma_lock, flags);
 }
 EXPORT_SYMBOL_GPL(ltq_dma_ack_irq);
 
 {
        unsigned long flag;
 
-       local_irq_save(flag);
+       spin_lock_irqsave(<q_dma_lock, flag);
        ltq_dma_w32(ch->nr, LTQ_DMA_CS);
        ltq_dma_w32_mask(0, DMA_CHAN_ON, LTQ_DMA_CCTRL);
-       ltq_dma_enable_irq(ch);
-       local_irq_restore(flag);
+       ltq_dma_w32_mask(0, 1 << ch->nr, LTQ_DMA_IRNEN);
+       spin_unlock_irqrestore(<q_dma_lock, flag);
 }
 EXPORT_SYMBOL_GPL(ltq_dma_open);
 
 {
        unsigned long flag;
 
-       local_irq_save(flag);
+       spin_lock_irqsave(<q_dma_lock, flag);
        ltq_dma_w32(ch->nr, LTQ_DMA_CS);
        ltq_dma_w32_mask(DMA_CHAN_ON, 0, LTQ_DMA_CCTRL);
-       ltq_dma_disable_irq(ch);
-       local_irq_restore(flag);
+       ltq_dma_w32_mask(1 << ch->nr, 0, LTQ_DMA_IRNEN);
+       spin_unlock_irqrestore(<q_dma_lock, flag);
 }
 EXPORT_SYMBOL_GPL(ltq_dma_close);
 
                                &ch->phys, GFP_ATOMIC);
        memset(ch->desc_base, 0, LTQ_DESC_NUM * LTQ_DESC_SIZE);
 
-       local_irq_save(flags);
+       spin_lock_irqsave(<q_dma_lock, flags);
        ltq_dma_w32(ch->nr, LTQ_DMA_CS);
        ltq_dma_w32(ch->phys, LTQ_DMA_CDBA);
        ltq_dma_w32(LTQ_DESC_NUM, LTQ_DMA_CDLEN);
        ltq_dma_w32_mask(0, DMA_CHAN_RST, LTQ_DMA_CCTRL);
        while (ltq_dma_r32(LTQ_DMA_CCTRL) & DMA_CHAN_RST)
                ;
-       local_irq_restore(flags);
+       spin_unlock_irqrestore(<q_dma_lock, flags);
 }
 
 void
 
        ltq_dma_alloc(ch);
 
-       local_irq_save(flags);
+       spin_lock_irqsave(<q_dma_lock, flags);
        ltq_dma_w32(DMA_DESCPT, LTQ_DMA_CIE);
        ltq_dma_w32_mask(0, 1 << ch->nr, LTQ_DMA_IRNEN);
        ltq_dma_w32(DMA_WEIGHT | DMA_TX, LTQ_DMA_CCTRL);
-       local_irq_restore(flags);
+       spin_unlock_irqrestore(<q_dma_lock, flags);
 }
 EXPORT_SYMBOL_GPL(ltq_dma_alloc_tx);
 
 
        ltq_dma_alloc(ch);
 
-       local_irq_save(flags);
+       spin_lock_irqsave(<q_dma_lock, flags);
        ltq_dma_w32(DMA_DESCPT, LTQ_DMA_CIE);
        ltq_dma_w32_mask(0, 1 << ch->nr, LTQ_DMA_IRNEN);
        ltq_dma_w32(DMA_WEIGHT, LTQ_DMA_CCTRL);
-       local_irq_restore(flags);
+       spin_unlock_irqrestore(<q_dma_lock, flags);
 }
 EXPORT_SYMBOL_GPL(ltq_dma_alloc_rx);