break;
                }
 
-               mutex_lock(&common->tx_rxlock);
+               mutex_lock(&common->tx_lock);
 
                status = adapter->check_hw_queue_status(adapter, q_num);
                if ((status <= 0)) {
-                       mutex_unlock(&common->tx_rxlock);
+                       mutex_unlock(&common->tx_lock);
                        break;
                }
 
                skb = rsi_core_dequeue_pkt(common, q_num);
                if (skb == NULL) {
                        rsi_dbg(ERR_ZONE, "skb null\n");
-                       mutex_unlock(&common->tx_rxlock);
+                       mutex_unlock(&common->tx_lock);
                        break;
                }
 
                        status = rsi_send_data_pkt(common, skb);
 
                if (status) {
-                       mutex_unlock(&common->tx_rxlock);
+                       mutex_unlock(&common->tx_lock);
                        break;
                }
 
                common->tx_stats.total_tx_pkt_send[q_num]++;
 
                tstamp_2 = jiffies;
-               mutex_unlock(&common->tx_rxlock);
+               mutex_unlock(&common->tx_lock);
 
                if (time_after(tstamp_2, tstamp_1 + (300 * HZ) / 1000))
                        schedule();
 
 
        rsi_init_event(&common->tx_thread.event);
        mutex_init(&common->mutex);
-       mutex_init(&common->tx_rxlock);
+       mutex_init(&common->tx_lock);
        mutex_init(&common->rx_lock);
 
        if (rsi_create_kthread(common,
 
        struct sk_buff_head tx_queue[NUM_EDCA_QUEUES + 1];
        /* Mutex declaration */
        struct mutex mutex;
-       /* Mutex used between tx/rx threads */
-       struct mutex tx_rxlock;
+       /* Mutex used for tx thread */
+       struct mutex tx_lock;
        /* Mutex used for rx thread */
        struct mutex rx_lock;
        u8 endpoint;