}
 }
 
-static int __xp_assign_dev(struct xsk_buff_pool *pool,
-                          struct net_device *netdev, u16 queue_id, u16 flags)
+int xp_assign_dev(struct xsk_buff_pool *pool,
+                 struct net_device *netdev, u16 queue_id, u16 flags)
 {
        bool force_zc, force_copy;
        struct netdev_bpf bpf;
        return err;
 }
 
-int xp_assign_dev(struct xsk_buff_pool *pool, struct net_device *dev,
-                 u16 queue_id, u16 flags)
-{
-       return __xp_assign_dev(pool, dev, queue_id, flags);
-}
-
 int xp_assign_dev_shared(struct xsk_buff_pool *pool, struct xdp_umem *umem,
                         struct net_device *dev, u16 queue_id)
 {
        if (pool->uses_need_wakeup)
                flags |= XDP_USE_NEED_WAKEUP;
 
-       return __xp_assign_dev(pool, dev, queue_id, flags);
+       return xp_assign_dev(pool, dev, queue_id, flags);
 }
 
 void xp_clear_dev(struct xsk_buff_pool *pool)