return true;
 }
 
-static bool rtl_tx_slots_avail(struct rtl8169_private *tp,
-                              unsigned int nr_frags)
+static bool rtl_tx_slots_avail(struct rtl8169_private *tp)
 {
        unsigned int slots_avail = READ_ONCE(tp->dirty_tx) + NUM_TX_DESC
                                        - READ_ONCE(tp->cur_tx);
 
        /* A skbuff with nr_frags needs nr_frags+1 entries in the tx queue */
-       return slots_avail > nr_frags;
+       return slots_avail > MAX_SKB_FRAGS;
 }
 
 /* Versions RTL8102e and from RTL8168c onwards support csum_v2 */
 
        txd_first = tp->TxDescArray + entry;
 
-       if (unlikely(!rtl_tx_slots_avail(tp, frags))) {
+       if (unlikely(!rtl_tx_slots_avail(tp))) {
                if (net_ratelimit())
                        netdev_err(dev, "BUG! Tx Ring full when queue awake!\n");
                goto err_stop_0;
 
        WRITE_ONCE(tp->cur_tx, tp->cur_tx + frags + 1);
 
-       stop_queue = !rtl_tx_slots_avail(tp, MAX_SKB_FRAGS);
+       stop_queue = !rtl_tx_slots_avail(tp);
        if (unlikely(stop_queue)) {
                /* Avoid wrongly optimistic queue wake-up: rtl_tx thread must
                 * not miss a ring update when it notices a stopped queue.
                 * can't.
                 */
                smp_mb__after_atomic();
-               if (rtl_tx_slots_avail(tp, MAX_SKB_FRAGS))
+               if (rtl_tx_slots_avail(tp))
                        netif_start_queue(dev);
                door_bell = true;
        }
                 * ring status.
                 */
                smp_store_mb(tp->dirty_tx, dirty_tx);
-               if (netif_queue_stopped(dev) &&
-                   rtl_tx_slots_avail(tp, MAX_SKB_FRAGS)) {
+               if (netif_queue_stopped(dev) && rtl_tx_slots_avail(tp))
                        netif_wake_queue(dev);
-               }
                /*
                 * 8168 hack: TxPoll requests are lost when the Tx packets are
                 * too close. Let's kick an extra TxPoll request when a burst