return retval;
 }
 
-static void tsnep_tx_activate(struct tsnep_tx *tx, int index, bool last)
+static void tsnep_tx_activate(struct tsnep_tx *tx, int index, int length,
+                             bool last)
 {
        struct tsnep_tx_entry *entry = &tx->entry[index];
 
        entry->properties = 0;
        if (entry->skb) {
-               entry->properties =
-                       skb_pagelen(entry->skb) & TSNEP_DESC_LENGTH_MASK;
+               entry->properties = length & TSNEP_DESC_LENGTH_MASK;
                entry->properties |= TSNEP_DESC_INTERRUPT_FLAG;
                if (skb_shinfo(entry->skb)->tx_flags & SKBTX_IN_PROGRESS)
                        entry->properties |= TSNEP_DESC_EXTENDED_WRITEBACK_FLAG;
        struct tsnep_tx_entry *entry;
        unsigned int len;
        dma_addr_t dma;
+       int map_len = 0;
        int i;
 
        for (i = 0; i < count; i++) {
                dma_unmap_addr_set(entry, dma, dma);
 
                entry->desc->tx = __cpu_to_le64(dma);
+
+               map_len += len;
        }
 
-       return 0;
+       return map_len;
 }
 
-static void tsnep_tx_unmap(struct tsnep_tx *tx, int index, int count)
+static int tsnep_tx_unmap(struct tsnep_tx *tx, int index, int count)
 {
        struct device *dmadev = tx->adapter->dmadev;
        struct tsnep_tx_entry *entry;
+       int map_len = 0;
        int i;
 
        for (i = 0; i < count; i++) {
                                               dma_unmap_addr(entry, dma),
                                               dma_unmap_len(entry, len),
                                               DMA_TO_DEVICE);
+                       map_len += entry->len;
                        entry->len = 0;
                }
        }
+
+       return map_len;
 }
 
 static netdev_tx_t tsnep_xmit_frame_ring(struct sk_buff *skb,
        unsigned long flags;
        int count = 1;
        struct tsnep_tx_entry *entry;
+       int length;
        int i;
        int retval;
 
        entry->skb = skb;
 
        retval = tsnep_tx_map(skb, tx, count);
-       if (retval != 0) {
+       if (retval < 0) {
                tsnep_tx_unmap(tx, tx->write, count);
                dev_kfree_skb_any(entry->skb);
                entry->skb = NULL;
 
                return NETDEV_TX_OK;
        }
+       length = retval;
 
        if (skb_shinfo(skb)->tx_flags & SKBTX_HW_TSTAMP)
                skb_shinfo(skb)->tx_flags |= SKBTX_IN_PROGRESS;
 
        for (i = 0; i < count; i++)
-               tsnep_tx_activate(tx, (tx->write + i) % TSNEP_RING_SIZE,
+               tsnep_tx_activate(tx, (tx->write + i) % TSNEP_RING_SIZE, length,
                                  i == (count - 1));
        tx->write = (tx->write + count) % TSNEP_RING_SIZE;
 
                netif_stop_queue(tx->adapter->netdev);
        }
 
-       tx->packets++;
-       tx->bytes += skb_pagelen(entry->skb) + ETH_FCS_LEN;
-
        spin_unlock_irqrestore(&tx->lock, flags);
 
        return NETDEV_TX_OK;
        int budget = 128;
        struct tsnep_tx_entry *entry;
        int count;
+       int length;
 
        spin_lock_irqsave(&tx->lock, flags);
 
                if (skb_shinfo(entry->skb)->nr_frags > 0)
                        count += skb_shinfo(entry->skb)->nr_frags;
 
-               tsnep_tx_unmap(tx, tx->read, count);
+               length = tsnep_tx_unmap(tx, tx->read, count);
 
                if ((skb_shinfo(entry->skb)->tx_flags & SKBTX_IN_PROGRESS) &&
                    (__le32_to_cpu(entry->desc_wb->properties) &
 
                tx->read = (tx->read + count) % TSNEP_RING_SIZE;
 
+               tx->packets++;
+               tx->bytes += length + ETH_FCS_LEN;
+
                budget--;
        } while (likely(budget));