int mt76x0_dma_enqueue_tx(struct mt76x0_dev *dev, struct sk_buff *skb,
                           struct mt76_wcid *wcid, int hw_q);
-
+int mt76x0_tx_prepare_skb(struct mt76_dev *mdev, void *data,
+                         struct sk_buff *skb, struct mt76_queue *q,
+                         struct mt76_wcid *wcid, struct ieee80211_sta *sta,
+                         u32 *tx_info);
 #endif
 
        trace_mt76x0_tx(&dev->mt76, skb, msta, txwi);
 }
 
+int mt76x0_tx_prepare_skb(struct mt76_dev *mdev, void *data,
+                         struct sk_buff *skb, struct mt76_queue *q,
+                         struct mt76_wcid *wcid, struct ieee80211_sta *sta,
+                         u32 *tx_info)
+{
+       struct mt76x0_dev *dev = container_of(mdev, struct mt76x0_dev, mt76);
+       struct mt76x02_txwi *txwi;
+       int len = skb->len;
+
+       mt76x02_insert_hdr_pad(skb);
+       txwi = mt76x0_push_txwi(dev, skb, sta, wcid, len);
+
+       return mt76x02_set_txinfo(skb, wcid, q2ep(q->hw_idx));
+}
+
 void mt76x0_tx_stat(struct work_struct *work)
 {
        struct mt76x0_dev *dev = container_of(work, struct mt76x0_dev,