desc->dptr = cpu_to_le32((u32)priv->tx_desc_dma[q]);
 }
 
+static void *ravb_alloc_rx_desc(struct net_device *ndev, int q)
+{
+       struct ravb_private *priv = netdev_priv(ndev);
+       unsigned int ring_size;
+
+       ring_size = sizeof(struct ravb_ex_rx_desc) * (priv->num_rx_ring[q] + 1);
+
+       priv->rx_ring[q] = dma_alloc_coherent(ndev->dev.parent, ring_size,
+                                             &priv->rx_desc_dma[q],
+                                             GFP_KERNEL);
+       return priv->rx_ring[q];
+}
+
 /* Init skb and descriptor buffer for Ethernet AVB */
 static int ravb_ring_init(struct net_device *ndev, int q)
 {
        }
 
        /* Allocate all RX descriptors. */
-       ring_size = sizeof(struct ravb_ex_rx_desc) * (priv->num_rx_ring[q] + 1);
-       priv->rx_ring[q] = dma_alloc_coherent(ndev->dev.parent, ring_size,
-                                             &priv->rx_desc_dma[q],
-                                             GFP_KERNEL);
-       if (!priv->rx_ring[q])
+       if (!info->alloc_rx_desc(ndev, q))
                goto error;
 
        priv->dirty_rx[q] = 0;
 static const struct ravb_hw_info ravb_gen3_hw_info = {
        .rx_ring_free = ravb_rx_ring_free,
        .rx_ring_format = ravb_rx_ring_format,
+       .alloc_rx_desc = ravb_alloc_rx_desc,
        .gstrings_stats = ravb_gstrings_stats,
        .gstrings_size = sizeof(ravb_gstrings_stats),
        .net_hw_features = NETIF_F_RXCSUM,
 static const struct ravb_hw_info ravb_gen2_hw_info = {
        .rx_ring_free = ravb_rx_ring_free,
        .rx_ring_format = ravb_rx_ring_format,
+       .alloc_rx_desc = ravb_alloc_rx_desc,
        .gstrings_stats = ravb_gstrings_stats,
        .gstrings_size = sizeof(ravb_gstrings_stats),
        .net_hw_features = NETIF_F_RXCSUM,