* time, or we hadn't time to drain the AC queues.
                 */
                if (agg_state == IWL_AGG_ON)
-                       iwl_trans_tx_agg_disable(priv->trans, txq_id);
+                       iwl_trans_txq_disable(priv->trans, txq_id);
                else
                        IWL_DEBUG_TX_QUEUES(priv, "Don't disable tx agg: %d\n",
                                            agg_state);
                        IWL_DEBUG_TX_QUEUES(priv,
                                "Can continue DELBA flow ssn = next_recl ="
                                " %d", tid_data->next_reclaimed);
-                       iwl_trans_tx_agg_disable(priv->trans,
-                                                tid_data->agg.txq_id);
+                       iwl_trans_txq_disable(priv->trans,
+                                             tid_data->agg.txq_id);
                        iwlagn_dealloc_agg_txq(priv, tid_data->agg.txq_id);
                        tid_data->agg.state = IWL_AGG_OFF;
                        ieee80211_stop_tx_ba_cb_irqsafe(vif, addr, tid);
 
  * @tx_agg_setup: setup a tx queue for AMPDU - will be called once the HW is
  *     ready and a successful ADDBA response has been received.
  *     May sleep
- * @tx_agg_disable: de-configure a Tx queue to send AMPDUs
+ * @txq_disable: de-configure a Tx queue to send AMPDUs
  *     Must be atomic
  * @wait_tx_queue_empty: wait until all tx queues are empty
  *     May sleep
 
        void (*tx_agg_setup)(struct iwl_trans *trans, int queue, int fifo,
                             int sta_id, int tid, int frame_limit, u16 ssn);
-       void (*tx_agg_disable)(struct iwl_trans *trans, int queue);
+       void (*txq_disable)(struct iwl_trans *trans, int queue);
 
        int (*dbgfs_register)(struct iwl_trans *trans, struct dentry* dir);
        int (*wait_tx_queue_empty)(struct iwl_trans *trans);
        trans->ops->reclaim(trans, queue, ssn, skbs);
 }
 
-static inline void iwl_trans_tx_agg_disable(struct iwl_trans *trans, int queue)
+static inline void iwl_trans_txq_disable(struct iwl_trans *trans, int queue)
 {
        WARN_ONCE(trans->state != IWL_TRANS_FW_ALIVE,
                  "%s bad state = %d", __func__, trans->state);
 
-       trans->ops->tx_agg_disable(trans, queue);
+       trans->ops->txq_disable(trans, queue);
 }
 
 static inline void iwl_trans_tx_agg_setup(struct iwl_trans *trans, int queue,
 
 void iwl_trans_txq_update_byte_cnt_tbl(struct iwl_trans *trans,
                                       struct iwl_tx_queue *txq,
                                       u16 byte_cnt);
-void iwl_trans_pcie_tx_agg_disable(struct iwl_trans *trans, int queue);
+void iwl_trans_pcie_txq_disable(struct iwl_trans *trans, int queue);
 void iwl_trans_set_wr_ptrs(struct iwl_trans *trans, int txq_id, u32 index);
 void iwl_trans_tx_queue_set_status(struct iwl_trans *trans,
                                   struct iwl_tx_queue *txq,
 
        .tx = iwl_trans_pcie_tx,
        .reclaim = iwl_trans_pcie_reclaim,
 
-       .tx_agg_disable = iwl_trans_pcie_tx_agg_disable,
+       .txq_disable = iwl_trans_pcie_txq_disable,
        .tx_agg_setup = iwl_trans_pcie_tx_agg_setup,
 
        .dbgfs_register = iwl_trans_pcie_dbgfs_register,
 
        spin_unlock_irqrestore(&trans_pcie->irq_lock, flags);
 }
 
-void iwl_trans_pcie_tx_agg_disable(struct iwl_trans *trans, int txq_id)
+void iwl_trans_pcie_txq_disable(struct iwl_trans *trans, int txq_id)
 {
        struct iwl_trans_pcie *trans_pcie = IWL_TRANS_GET_PCIE_TRANS(trans);