void __iomem *reg_base;
 
        u32 reg_sr;
-       unsigned int tx_next;
-       unsigned int tx_echo;
+       unsigned int tx_head;
+       unsigned int tx_tail;
        unsigned int rx_next;
        struct at91_devtype_data devtype_data;
 
        return get_mb_tx_first(priv) + get_mb_tx_num(priv) - 1;
 }
 
-static inline unsigned int get_next_prio_shift(const struct at91_priv *priv)
+static inline unsigned int get_head_prio_shift(const struct at91_priv *priv)
 {
        return get_mb_tx_shift(priv);
 }
 
-static inline unsigned int get_next_prio_mask(const struct at91_priv *priv)
+static inline unsigned int get_head_prio_mask(const struct at91_priv *priv)
 {
        return 0xf << get_mb_tx_shift(priv);
 }
 
-static inline unsigned int get_next_mb_mask(const struct at91_priv *priv)
+static inline unsigned int get_head_mb_mask(const struct at91_priv *priv)
 {
        return AT91_MB_MASK(get_mb_tx_shift(priv));
 }
 
-static inline unsigned int get_next_mask(const struct at91_priv *priv)
+static inline unsigned int get_head_mask(const struct at91_priv *priv)
 {
-       return get_next_mb_mask(priv) | get_next_prio_mask(priv);
+       return get_head_mb_mask(priv) | get_head_prio_mask(priv);
 }
 
 static inline unsigned int get_irq_mb_rx(const struct at91_priv *priv)
                ~AT91_MB_MASK(get_mb_tx_first(priv));
 }
 
-static inline unsigned int get_tx_next_mb(const struct at91_priv *priv)
+static inline unsigned int get_tx_head_mb(const struct at91_priv *priv)
 {
-       return (priv->tx_next & get_next_mb_mask(priv)) + get_mb_tx_first(priv);
+       return (priv->tx_head & get_head_mb_mask(priv)) + get_mb_tx_first(priv);
 }
 
-static inline unsigned int get_tx_next_prio(const struct at91_priv *priv)
+static inline unsigned int get_tx_head_prio(const struct at91_priv *priv)
 {
-       return (priv->tx_next >> get_next_prio_shift(priv)) & 0xf;
+       return (priv->tx_head >> get_head_prio_shift(priv)) & 0xf;
 }
 
-static inline unsigned int get_tx_echo_mb(const struct at91_priv *priv)
+static inline unsigned int get_tx_tail_mb(const struct at91_priv *priv)
 {
-       return (priv->tx_echo & get_next_mb_mask(priv)) + get_mb_tx_first(priv);
+       return (priv->tx_tail & get_head_mb_mask(priv)) + get_mb_tx_first(priv);
 }
 
 static inline u32 at91_read(const struct at91_priv *priv, enum at91_reg reg)
                set_mb_mode_prio(priv, i, AT91_MB_MODE_TX, 0);
 
        /* Reset tx and rx helper pointers */
-       priv->tx_next = priv->tx_echo = 0;
+       priv->tx_head = priv->tx_tail = 0;
        priv->rx_next = get_mb_rx_first(priv);
 }
 
  * stop sending, waiting for all messages to be delivered, then start
  * again with mailbox AT91_MB_TX_FIRST prio 0.
  *
- * We use the priv->tx_next as counter for the next transmission
+ * We use the priv->tx_head as counter for the next transmission
  * mailbox, but without the offset AT91_MB_TX_FIRST. The lower bits
  * encode the mailbox number, the upper 4 bits the mailbox priority:
  *
- * priv->tx_next = (prio << get_next_prio_shift(priv)) |
+ * priv->tx_head = (prio << get_next_prio_shift(priv)) |
  *                 (mb - get_mb_tx_first(priv));
  *
  */
        if (can_dev_dropped_skb(dev, skb))
                return NETDEV_TX_OK;
 
-       mb = get_tx_next_mb(priv);
-       prio = get_tx_next_prio(priv);
+       mb = get_tx_head_mb(priv);
+       prio = get_tx_head_prio(priv);
 
        if (unlikely(!(at91_read(priv, AT91_MSR(mb)) & AT91_MSR_MRDY))) {
                netif_stop_queue(dev);
 
        /* we have to stop the queue and deliver all messages in case
         * of a prio+mb counter wrap around. This is the case if
-        * tx_next buffer prio and mailbox equals 0.
+        * tx_head buffer prio and mailbox equals 0.
         *
         * also stop the queue if next buffer is still in use
         * (== not ready)
         */
-       priv->tx_next++;
-       if (!(at91_read(priv, AT91_MSR(get_tx_next_mb(priv))) &
+       priv->tx_head++;
+       if (!(at91_read(priv, AT91_MSR(get_tx_head_mb(priv))) &
              AT91_MSR_MRDY) ||
-           (priv->tx_next & get_next_mask(priv)) == 0)
+           (priv->tx_head & get_head_mask(priv)) == 0)
                netif_stop_queue(dev);
 
        /* Enable interrupt for this mailbox */
 
 /* theory of operation:
  *
- * priv->tx_echo holds the number of the oldest can_frame put for
+ * priv->tx_tail holds the number of the oldest can_frame put for
  * transmission into the hardware, but not yet ACKed by the CAN tx
  * complete IRQ.
  *
- * We iterate from priv->tx_echo to priv->tx_next and check if the
+ * We iterate from priv->tx_tail to priv->tx_head and check if the
  * packet has been transmitted, echo it back to the CAN framework. If
  * we discover a not yet transmitted package, stop looking for more.
  *
 
        /* masking of reg_sr not needed, already done by at91_irq */
 
-       for (/* nix */; (priv->tx_next - priv->tx_echo) > 0; priv->tx_echo++) {
-               mb = get_tx_echo_mb(priv);
+       for (/* nix */; (priv->tx_head - priv->tx_tail) > 0; priv->tx_tail++) {
+               mb = get_tx_tail_mb(priv);
 
                /* no event in mailbox? */
                if (!(reg_sr & (1 << mb)))
         * we get a TX int for the last can frame directly before a
         * wrap around.
         */
-       if ((priv->tx_next & get_next_mask(priv)) != 0 ||
-           (priv->tx_echo & get_next_mask(priv)) == 0)
+       if ((priv->tx_head & get_head_mask(priv)) != 0 ||
+           (priv->tx_tail & get_head_mask(priv)) == 0)
                netif_wake_queue(dev);
 }