index);
 }
 
-static int lan743x_rx_init_ring_element(struct lan743x_rx *rx, int index)
+static int lan743x_rx_init_ring_element(struct lan743x_rx *rx, int index,
+                                       gfp_t gfp)
 {
        struct net_device *netdev = rx->adapter->netdev;
        struct device *dev = &rx->adapter->pdev->dev;
 
        descriptor = &rx->ring_cpu_ptr[index];
        buffer_info = &rx->buffer_info[index];
-       skb = __netdev_alloc_skb(netdev, buffer_length, GFP_ATOMIC | GFP_DMA);
+       skb = __netdev_alloc_skb(netdev, buffer_length, gfp);
        if (!skb)
                return -ENOMEM;
        dma_ptr = dma_map_single(dev, skb->data, buffer_length, DMA_FROM_DEVICE);
 
        /* save existing skb, allocate new skb and map to dma */
        skb = buffer_info->skb;
-       if (lan743x_rx_init_ring_element(rx, rx->last_head)) {
+       if (lan743x_rx_init_ring_element(rx, rx->last_head,
+                                        GFP_ATOMIC | GFP_DMA)) {
                /* failed to allocate next skb.
                 * Memory is very low.
                 * Drop this packet and reuse buffer.
 
        rx->last_head = 0;
        for (index = 0; index < rx->ring_size; index++) {
-               ret = lan743x_rx_init_ring_element(rx, index);
+               ret = lan743x_rx_init_ring_element(rx, index, GFP_KERNEL);
                if (ret)
                        goto cleanup;
        }
        return 0;
 
 cleanup:
+       netif_warn(rx->adapter, ifup, rx->adapter->netdev,
+                  "Error allocating memory for LAN743x\n");
+
        lan743x_rx_ring_cleanup(rx);
        return ret;
 }