&qdisc_xmit_lock_key);        \
 }
 
+u16 netdev_pick_tx(struct net_device *dev, struct sk_buff *skb,
+                    struct net_device *sb_dev);
 struct netdev_queue *netdev_core_pick_tx(struct net_device *dev,
                                         struct sk_buff *skb,
                                         struct net_device *sb_dev);
 
 }
 EXPORT_SYMBOL(dev_pick_tx_cpu_id);
 
-static u16 netdev_pick_tx(struct net_device *dev, struct sk_buff *skb,
-                         struct net_device *sb_dev)
+u16 netdev_pick_tx(struct net_device *dev, struct sk_buff *skb,
+                    struct net_device *sb_dev)
 {
        struct sock *sk = skb->sk;
        int queue_index = sk_tx_queue_get(sk);
 
        return queue_index;
 }
+EXPORT_SYMBOL(netdev_pick_tx);
 
 struct netdev_queue *netdev_core_pick_tx(struct net_device *dev,
                                         struct sk_buff *skb,
 
        return po->xmit == packet_direct_xmit;
 }
 
-static u16 __packet_pick_tx_queue(struct net_device *dev, struct sk_buff *skb,
-                                 struct net_device *sb_dev)
-{
-       return dev_pick_tx_cpu_id(dev, skb, sb_dev, NULL);
-}
-
 static u16 packet_pick_tx_queue(struct sk_buff *skb)
 {
        struct net_device *dev = skb->dev;
        const struct net_device_ops *ops = dev->netdev_ops;
+       int cpu = raw_smp_processor_id();
        u16 queue_index;
 
+#ifdef CONFIG_XPS
+       skb->sender_cpu = cpu + 1;
+#endif
+       skb_record_rx_queue(skb, cpu % dev->real_num_tx_queues);
        if (ops->ndo_select_queue) {
                queue_index = ops->ndo_select_queue(dev, skb, NULL,
-                                                   __packet_pick_tx_queue);
+                                                   netdev_pick_tx);
                queue_index = netdev_cap_txqueue(dev, queue_index);
        } else {
-               queue_index = __packet_pick_tx_queue(dev, skb, NULL);
+               queue_index = netdev_pick_tx(dev, skb, NULL);
        }
 
        return queue_index;