void iwl_trans_txq_update_byte_cnt_tbl(struct iwl_trans *trans,
                                       struct iwl_tx_queue *txq,
                                       u16 byte_cnt);
-void iwl_trans_pcie_txq_disable(struct iwl_trans *trans, int queue);
-void __iwl_trans_pcie_txq_enable(struct iwl_trans *trans, int txq_id,
-                                       int fifo, int sta_id, int tid,
-                                       int frame_limit, u16 ssn);
 void iwl_trans_pcie_txq_enable(struct iwl_trans *trans, int txq_id, int fifo,
                               int sta_id, int tid, int frame_limit, u16 ssn);
+void iwl_trans_pcie_txq_disable(struct iwl_trans *trans, int queue);
 void iwl_txq_free_tfd(struct iwl_trans *trans, struct iwl_tx_queue *txq,
                      enum dma_data_direction dma_dir);
 int iwl_tx_queue_reclaim(struct iwl_trans *trans, int txq_id, int index,
 
        for (i = 0; i < trans_pcie->n_q_to_fifo; i++) {
                int fifo = trans_pcie->setup_q_to_fifo[i];
 
-               __iwl_trans_pcie_txq_enable(trans, i, fifo, IWL_INVALID_STATION,
-                                           IWL_TID_NON_QOS,
-                                           SCD_FRAME_LIMIT, 0);
+               iwl_trans_pcie_txq_enable(trans, i, fifo, IWL_INVALID_STATION,
+                                         IWL_TID_NON_QOS, SCD_FRAME_LIMIT, 0);
        }
 
        /* Activate all Tx DMA/FIFO channels */
 
                (1 << SCD_QUEUE_STTS_REG_POS_SCD_ACT_EN));
 }
 
-void __iwl_trans_pcie_txq_enable(struct iwl_trans *trans, int txq_id,
-                                       int fifo, int sta_id, int tid,
-                                       int frame_limit, u16 ssn)
+void iwl_trans_pcie_txq_enable(struct iwl_trans *trans, int txq_id, int fifo,
+                              int sta_id, int tid, int frame_limit, u16 ssn)
 {
        struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans);
 
-       lockdep_assert_held(&trans_pcie->irq_lock);
-
        if (test_and_set_bit(txq_id, trans_pcie->queue_used))
                WARN_ONCE(1, "queue %d already used - expect issues", txq_id);
 
                            txq_id, fifo, ssn & 0xff);
 }
 
-void iwl_trans_pcie_txq_enable(struct iwl_trans *trans, int txq_id, int fifo,
-                              int sta_id, int tid, int frame_limit, u16 ssn)
-{
-       struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans);
-       unsigned long flags;
-
-       spin_lock_irqsave(&trans_pcie->irq_lock, flags);
-
-       __iwl_trans_pcie_txq_enable(trans, txq_id, fifo, sta_id,
-                                   tid, frame_limit, ssn);
-
-       spin_unlock_irqrestore(&trans_pcie->irq_lock, flags);
-}
-
 void iwl_trans_pcie_txq_disable(struct iwl_trans *trans, int txq_id)
 {
        struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans);