*/
        if (q->flags & IFF_VNET_HDR)
                features |= vlan->tap_features;
-       if (netif_needs_gso(skb, features)) {
+       if (netif_needs_gso(dev, skb, features)) {
                struct sk_buff *segs = __skb_gso_segment(skb, features, false);
 
                if (IS_ERR(segs))
 
 
        if (unlikely(!netif_carrier_ok(dev) ||
                     (slots > 1 && !xennet_can_sg(dev)) ||
-                    netif_needs_gso(skb, netif_skb_features(skb)))) {
+                    netif_needs_gso(dev, skb, netif_skb_features(skb)))) {
                spin_unlock_irqrestore(&queue->tx_lock, flags);
                goto drop;
        }
 
  *     Callback to use for xmit over the accelerated station. This
  *     is used in place of ndo_start_xmit on accelerated net
  *     devices.
+ * bool        (*ndo_gso_check) (struct sk_buff *skb,
+ *                       struct net_device *dev);
+ *     Called by core transmit path to determine if device is capable of
+ *     performing GSO on a packet. The device returns true if it is
+ *     able to GSO the packet, false otherwise. If the return value is
+ *     false the stack will do software GSO.
  */
 struct net_device_ops {
        int                     (*ndo_init)(struct net_device *dev);
                                                        struct net_device *dev,
                                                        void *priv);
        int                     (*ndo_get_lock_subclass)(struct net_device *dev);
+       bool                    (*ndo_gso_check) (struct sk_buff *skb,
+                                                 struct net_device *dev);
 };
 
 /**
               (!skb_has_frag_list(skb) || (features & NETIF_F_FRAGLIST));
 }
 
-static inline bool netif_needs_gso(struct sk_buff *skb,
+static inline bool netif_needs_gso(struct net_device *dev, struct sk_buff *skb,
                                   netdev_features_t features)
 {
        return skb_is_gso(skb) && (!skb_gso_ok(skb, features) ||
+               (dev->netdev_ops->ndo_gso_check &&
+                !dev->netdev_ops->ndo_gso_check(skb, dev)) ||
                unlikely((skb->ip_summed != CHECKSUM_PARTIAL) &&
                         (skb->ip_summed != CHECKSUM_UNNECESSARY)));
 }
 
        if (skb->encapsulation)
                features &= dev->hw_enc_features;
 
-       if (netif_needs_gso(skb, features)) {
+       if (netif_needs_gso(dev, skb, features)) {
                struct sk_buff *segs;
 
                segs = skb_gso_segment(skb, features);