return done;
 }
 
-void mt7921_dma_prefetch(struct mt7921_dev *dev)
+static void mt7921_dma_prefetch(struct mt7921_dev *dev)
 {
 #define PREFETCH(base, depth)  ((base) << 16 | (depth))
 
        return 0;
 }
 
+int mt7921_dma_reset(struct mt7921_dev *dev, bool force)
+{
+       int i;
+
+       if (force) {
+               /* reset */
+               mt76_clear(dev, MT_WFDMA0_RST,
+                          MT_WFDMA0_RST_DMASHDL_ALL_RST |
+                          MT_WFDMA0_RST_LOGIC_RST);
+
+               mt76_set(dev, MT_WFDMA0_RST,
+                        MT_WFDMA0_RST_DMASHDL_ALL_RST |
+                        MT_WFDMA0_RST_LOGIC_RST);
+       }
+
+       /* disable WFDMA0 */
+       mt76_clear(dev, MT_WFDMA0_GLO_CFG,
+                  MT_WFDMA0_GLO_CFG_TX_DMA_EN | MT_WFDMA0_GLO_CFG_RX_DMA_EN |
+                  MT_WFDMA0_GLO_CFG_CSR_DISP_BASE_PTR_CHAIN_EN |
+                  MT_WFDMA0_GLO_CFG_OMIT_TX_INFO |
+                  MT_WFDMA0_GLO_CFG_OMIT_RX_INFO |
+                  MT_WFDMA0_GLO_CFG_OMIT_RX_INFO_PFET2);
+
+       if (!mt76_poll(dev, MT_WFDMA0_GLO_CFG,
+                      MT_WFDMA0_GLO_CFG_TX_DMA_BUSY |
+                      MT_WFDMA0_GLO_CFG_RX_DMA_BUSY, 0, 1000))
+               return -ETIMEDOUT;
+
+       /* reset hw queues */
+       for (i = 0; i < __MT_TXQ_MAX; i++)
+               mt76_queue_reset(dev, dev->mphy.q_tx[i]);
+
+       for (i = 0; i < __MT_MCUQ_MAX; i++)
+               mt76_queue_reset(dev, dev->mt76.q_mcu[i]);
+
+       mt76_for_each_q_rx(&dev->mt76, i)
+               mt76_queue_reset(dev, &dev->mt76.q_rx[i]);
+
+       mt76_tx_status_check(&dev->mt76, NULL, true);
+
+       /* configure perfetch settings */
+       mt7921_dma_prefetch(dev);
+
+       /* reset dma idx */
+       mt76_wr(dev, MT_WFDMA0_RST_DTX_PTR, ~0);
+
+       /* configure delay interrupt */
+       mt76_wr(dev, MT_WFDMA0_PRI_DLY_INT_CFG0, 0);
+
+       mt76_set(dev, MT_WFDMA0_GLO_CFG,
+                MT_WFDMA0_GLO_CFG_TX_WB_DDONE |
+                MT_WFDMA0_GLO_CFG_FIFO_LITTLE_ENDIAN |
+                MT_WFDMA0_GLO_CFG_CLK_GAT_DIS |
+                MT_WFDMA0_GLO_CFG_OMIT_TX_INFO |
+                MT_WFDMA0_GLO_CFG_CSR_DISP_BASE_PTR_CHAIN_EN |
+                MT_WFDMA0_GLO_CFG_OMIT_RX_INFO_PFET2);
+
+       mt76_set(dev, MT_WFDMA0_GLO_CFG,
+                MT_WFDMA0_GLO_CFG_TX_DMA_EN | MT_WFDMA0_GLO_CFG_RX_DMA_EN);
+
+       mt76_set(dev, MT_WFDMA_DUMMY_CR, MT_WFDMA_NEED_REINIT);
+
+       /* enable interrupts for TX/RX rings */
+       mt7921_irq_enable(dev,
+                         MT_INT_RX_DONE_ALL | MT_INT_TX_DONE_ALL |
+                         MT_INT_MCU_CMD);
+       mt76_set(dev, MT_MCU2HOST_SW_INT_ENA, MT_MCU_CMD_WAKE_RX_PCIE);
+
+       return 0;
+}
+
 int mt7921_dma_init(struct mt7921_dev *dev)
 {
        /* Increase buffer size to receive large VHT/HE MPDUs */
 
                                WFSYS_SW_INIT_DONE, WFSYS_SW_INIT_DONE, 500);
 }
 
-static void
-mt7921_dma_reset(struct mt7921_dev *dev)
-{
-       int i;
-
-       /* reset */
-       mt76_clear(dev, MT_WFDMA0_RST,
-                  MT_WFDMA0_RST_DMASHDL_ALL_RST | MT_WFDMA0_RST_LOGIC_RST);
-
-       mt76_set(dev, MT_WFDMA0_RST,
-                MT_WFDMA0_RST_DMASHDL_ALL_RST | MT_WFDMA0_RST_LOGIC_RST);
-
-       /* disable WFDMA0 */
-       mt76_clear(dev, MT_WFDMA0_GLO_CFG,
-                  MT_WFDMA0_GLO_CFG_TX_DMA_EN | MT_WFDMA0_GLO_CFG_RX_DMA_EN |
-                  MT_WFDMA0_GLO_CFG_CSR_DISP_BASE_PTR_CHAIN_EN |
-                  MT_WFDMA0_GLO_CFG_OMIT_TX_INFO |
-                  MT_WFDMA0_GLO_CFG_OMIT_RX_INFO |
-                  MT_WFDMA0_GLO_CFG_OMIT_RX_INFO_PFET2);
-
-       mt76_poll(dev, MT_WFDMA0_GLO_CFG,
-                 MT_WFDMA0_GLO_CFG_TX_DMA_BUSY |
-                 MT_WFDMA0_GLO_CFG_RX_DMA_BUSY, 0, 1000);
-
-       /* reset hw queues */
-       for (i = 0; i < __MT_TXQ_MAX; i++)
-               mt76_queue_reset(dev, dev->mphy.q_tx[i]);
-
-       for (i = 0; i < __MT_MCUQ_MAX; i++)
-               mt76_queue_reset(dev, dev->mt76.q_mcu[i]);
-
-       mt76_for_each_q_rx(&dev->mt76, i)
-               mt76_queue_reset(dev, &dev->mt76.q_rx[i]);
-
-       mt76_tx_status_check(&dev->mt76, NULL, true);
-
-       /* configure perfetch settings */
-       mt7921_dma_prefetch(dev);
-
-       /* reset dma idx */
-       mt76_wr(dev, MT_WFDMA0_RST_DTX_PTR, ~0);
-
-       /* configure delay interrupt */
-       mt76_wr(dev, MT_WFDMA0_PRI_DLY_INT_CFG0, 0);
-
-       mt76_set(dev, MT_WFDMA0_GLO_CFG,
-                MT_WFDMA0_GLO_CFG_TX_WB_DDONE |
-                MT_WFDMA0_GLO_CFG_FIFO_LITTLE_ENDIAN |
-                MT_WFDMA0_GLO_CFG_CLK_GAT_DIS |
-                MT_WFDMA0_GLO_CFG_OMIT_TX_INFO |
-                MT_WFDMA0_GLO_CFG_CSR_DISP_BASE_PTR_CHAIN_EN |
-                MT_WFDMA0_GLO_CFG_OMIT_RX_INFO_PFET2);
-
-       mt76_set(dev, MT_WFDMA0_GLO_CFG,
-                MT_WFDMA0_GLO_CFG_TX_DMA_EN | MT_WFDMA0_GLO_CFG_RX_DMA_EN);
-
-       mt76_set(dev, MT_WFDMA_DUMMY_CR, MT_WFDMA_NEED_REINIT);
-
-       /* enable interrupts for TX/RX rings */
-       mt7921_irq_enable(dev,
-                         MT_INT_RX_DONE_ALL | MT_INT_TX_DONE_ALL |
-                         MT_INT_MCU_CMD);
-       mt76_set(dev, MT_MCU2HOST_SW_INT_ENA, MT_MCU_CMD_WAKE_RX_PCIE);
-}
-
 void mt7921_tx_token_put(struct mt7921_dev *dev)
 {
        struct mt76_txwi_cache *txwi;
                mt76_queue_rx_cleanup(dev, &dev->mt76.q_rx[i]);
 
        mt7921_wfsys_reset(dev);
-       mt7921_dma_reset(dev);
+       mt7921_dma_reset(dev, true);
 
        mt76_for_each_q_rx(&dev->mt76, i) {
                mt76_queue_rx_reset(dev, i);
 
                                   u8 chain_idx);
 void mt7921_eeprom_init_sku(struct mt7921_dev *dev);
 int mt7921_dma_init(struct mt7921_dev *dev);
-void mt7921_dma_prefetch(struct mt7921_dev *dev);
+int mt7921_dma_reset(struct mt7921_dev *dev, bool force);
 void mt7921_dma_cleanup(struct mt7921_dev *dev);
 int mt7921_run_firmware(struct mt7921_dev *dev);
 int mt7921_mcu_init(struct mt7921_dev *dev);