};
 }
 
-static void mlx5e_tx_skb_update_hwts_flags(struct sk_buff *skb)
+static void mlx5e_tx_skb_update_ts_flags(struct sk_buff *skb)
 {
        if (unlikely(skb_shinfo(skb)->tx_flags & SKBTX_HW_TSTAMP))
                skb_shinfo(skb)->tx_flags |= SKBTX_IN_PROGRESS;
+       skb_tx_timestamp(skb);
 }
 
 static void mlx5e_tx_check_stop(struct mlx5e_txqsq *sq)
        cseg->opmod_idx_opcode = cpu_to_be32((sq->pc << 8) | attr->opcode);
        cseg->qpn_ds           = cpu_to_be32((sq->sqn << 8) | wqe_attr->ds_cnt);
 
-       mlx5e_tx_skb_update_hwts_flags(skb);
+       mlx5e_tx_skb_update_ts_flags(skb);
 
        sq->pc += wi->num_wqebbs;
 
        mlx5e_dma_push(sq, txd.dma_addr, txd.len, MLX5E_DMA_MAP_SINGLE);
        mlx5e_skb_fifo_push(&sq->db.skb_fifo, skb);
        mlx5e_tx_mpwqe_add_dseg(sq, &txd);
-       mlx5e_tx_skb_update_hwts_flags(skb);
+       mlx5e_tx_skb_update_ts_flags(skb);
 
        if (unlikely(mlx5e_tx_mpwqe_is_full(&sq->mpwqe))) {
                /* Might stop the queue and affect the retval of __netdev_tx_sent_queue. */