if (bdp == rx_queue->rx_bd_base + rx_queue->rx_ring_size - 1)
                lstatus |= BD_LFLAG(RXBD_WRAP);
 
-       eieio();
+       gfar_wmb();
 
        bdp->lstatus = lstatus;
 }
         */
        spin_lock_irqsave(&tx_queue->txlock, flags);
 
-       /* The powerpc-specific eieio() is used, as wmb() has too strong
-        * semantics (it requires synchronization between cacheable and
-        * uncacheable mappings, which eieio doesn't provide and which we
-        * don't need), thus requiring a more expensive sync instruction.  At
-        * some point, the set of architecture-independent barrier functions
-        * should be expanded to include weaker barriers.
-        */
-       eieio();
+       gfar_wmb();
 
        txbdp_start->lstatus = lstatus;
 
-       eieio(); /* force lstatus write before tx_skbuff */
+       gfar_wmb(); /* force lstatus write before tx_skbuff */
 
        tx_queue->tx_skbuff[tx_queue->skb_curtx] = skb;
 
 
        return gfar_read(®s->ievent) & IEVENT_GRSC;
 }
 
+static inline void gfar_wmb(void)
+{
+#if defined(CONFIG_PPC)
+       /* The powerpc-specific eieio() is used, as wmb() has too strong
+        * semantics (it requires synchronization between cacheable and
+        * uncacheable mappings, which eieio() doesn't provide and which we
+        * don't need), thus requiring a more expensive sync instruction.  At
+        * some point, the set of architecture-independent barrier functions
+        * should be expanded to include weaker barriers.
+        */
+       eieio();
+#else
+       wmb(); /* order write acesses for BD (or FCB) fields */
+#endif
+}
+
 irqreturn_t gfar_receive(int irq, void *dev_id);
 int startup_gfar(struct net_device *dev);
 void stop_gfar(struct net_device *dev);