struct bcmgenet_priv *priv = netdev_priv(dev);
        struct device *kdev = &priv->pdev->dev;
        struct enet_cb *tx_cb_ptr;
+       unsigned int frag_size;
        dma_addr_t mapping;
        int ret;
 
 
        if (unlikely(!tx_cb_ptr))
                BUG();
+
        tx_cb_ptr->skb = NULL;
 
-       mapping = skb_frag_dma_map(kdev, frag, 0,
-                                  skb_frag_size(frag), DMA_TO_DEVICE);
+       frag_size = skb_frag_size(frag);
+
+       mapping = skb_frag_dma_map(kdev, frag, 0, frag_size, DMA_TO_DEVICE);
        ret = dma_mapping_error(kdev, mapping);
        if (ret) {
                priv->mib.tx_dma_failed++;
        }
 
        dma_unmap_addr_set(tx_cb_ptr, dma_addr, mapping);
-       dma_unmap_len_set(tx_cb_ptr, dma_len, frag->size);
+       dma_unmap_len_set(tx_cb_ptr, dma_len, frag_size);
 
        dmadesc_set(priv, tx_cb_ptr->bd_addr, mapping,
-                   (frag->size << DMA_BUFLENGTH_SHIFT) | dma_desc_flags |
+                   (frag_size << DMA_BUFLENGTH_SHIFT) | dma_desc_flags |
                    (priv->hw_params->qtag_mask << DMA_TX_QTAG_SHIFT));
 
        return 0;