u32 tx_timeout_count;
        u32 tx_timeout_recovery_level;
        unsigned long tx_timeout_last_recovery;
+       u32 tx_sluggish_count;
        u32 hw_csum_rx_error;
        u32 led_status;
        u16 corer_count; /* Core reset count */
 
                                 "emp reset count: %d\n", pf->empr_count);
                        dev_info(&pf->pdev->dev,
                                 "pf reset count: %d\n", pf->pfr_count);
+                       dev_info(&pf->pdev->dev,
+                                "pf tx sluggish count: %d\n",
+                                pf->tx_sluggish_count);
                } else if (strncmp(&cmd_buf[5], "port", 4) == 0) {
                        struct i40e_aqc_query_port_ets_config_resp *bw_data;
                        struct i40e_dcbx_config *cfg =
 
 static bool i40e_check_tx_hang(struct i40e_ring *tx_ring)
 {
        u32 tx_pending = i40e_get_tx_pending(tx_ring);
+       struct i40e_pf *pf = tx_ring->vsi->back;
        bool ret = false;
 
        clear_check_for_tx_hang(tx_ring);
         * pending but without time to complete it yet.
         */
        if ((tx_ring->tx_stats.tx_done_old == tx_ring->stats.packets) &&
-           tx_pending) {
+           (tx_pending >= I40E_MIN_DESC_PENDING)) {
                /* make sure it is true for two checks in a row */
                ret = test_and_set_bit(__I40E_HANG_CHECK_ARMED,
                                       &tx_ring->state);
+       } else if ((tx_ring->tx_stats.tx_done_old == tx_ring->stats.packets) &&
+                  (tx_pending < I40E_MIN_DESC_PENDING) &&
+                  (tx_pending > 0)) {
+               if (I40E_DEBUG_FLOW & pf->hw.debug_mask)
+                       dev_info(tx_ring->dev, "HW needs some more descs to do a cacheline flush. tx_pending %d, queue %d",
+                                tx_pending, tx_ring->queue_index);
+               pf->tx_sluggish_count++;
        } else {
                /* update completed stats and disarm the hang check */
                tx_ring->tx_stats.tx_done_old = tx_ring->stats.packets;
 
 /* Tx Descriptors needed, worst case */
 #define TXD_USE_COUNT(S) DIV_ROUND_UP((S), I40E_MAX_DATA_PER_TXD)
 #define DESC_NEEDED (MAX_SKB_FRAGS + 4)
+#define I40E_MIN_DESC_PENDING  4
 
 #define I40E_TX_FLAGS_CSUM             (u32)(1)
 #define I40E_TX_FLAGS_HW_VLAN          (u32)(1 << 1)
 
         * pending but without time to complete it yet.
         */
        if ((tx_ring->tx_stats.tx_done_old == tx_ring->stats.packets) &&
-           tx_pending) {
+           (tx_pending >= I40E_MIN_DESC_PENDING)) {
                /* make sure it is true for two checks in a row */
                ret = test_and_set_bit(__I40E_HANG_CHECK_ARMED,
                                       &tx_ring->state);
-       } else {
+       } else if (!(tx_ring->tx_stats.tx_done_old == tx_ring->stats.packets) ||
+                  !(tx_pending < I40E_MIN_DESC_PENDING) ||
+                  !(tx_pending > 0)) {
                /* update completed stats and disarm the hang check */
                tx_ring->tx_stats.tx_done_old = tx_ring->stats.packets;
                clear_bit(__I40E_HANG_CHECK_ARMED, &tx_ring->state);
 
 /* Tx Descriptors needed, worst case */
 #define TXD_USE_COUNT(S) DIV_ROUND_UP((S), I40E_MAX_DATA_PER_TXD)
 #define DESC_NEEDED (MAX_SKB_FRAGS + 4)
+#define I40E_MIN_DESC_PENDING  4
 
 #define I40E_TX_FLAGS_CSUM             (u32)(1)
 #define I40E_TX_FLAGS_HW_VLAN          (u32)(1 << 1)