struct tx_ring_desc *q; /* descriptor list for the queue */
        spinlock_t lock;
        atomic_t tx_count;      /* counts down for every outstanding IO */
-       atomic_t queue_stopped; /* Turns queue off when full. */
        struct delayed_work tx_work;
        struct ql_adapter *qdev;
        u64 tx_packets;
 
        ql_write_cq_idx(rx_ring);
        tx_ring = &qdev->tx_ring[net_rsp->txq_idx];
        if (__netif_subqueue_stopped(qdev->ndev, tx_ring->wq_id)) {
-               if (atomic_read(&tx_ring->queue_stopped) &&
-                   (atomic_read(&tx_ring->tx_count) > (tx_ring->wq_len / 4)))
+               if ((atomic_read(&tx_ring->tx_count) > (tx_ring->wq_len / 4)))
                        /*
                         * The queue got stopped because the tx_ring was full.
                         * Wake it up, because it's now at least 25% empty.
                           "%s: BUG! shutting down tx queue %d due to lack of resources.\n",
                           __func__, tx_ring_idx);
                netif_stop_subqueue(ndev, tx_ring->wq_id);
-               atomic_inc(&tx_ring->queue_stopped);
                tx_ring->tx_errors++;
                return NETDEV_TX_BUSY;
        }
                tx_ring_desc++;
        }
        atomic_set(&tx_ring->tx_count, tx_ring->wq_len);
-       atomic_set(&tx_ring->queue_stopped, 0);
 }
 
 static void ql_free_tx_resources(struct ql_adapter *qdev,