static inline bool nicvf_xdp_rx(struct nicvf *nic, struct bpf_prog *prog,
                                struct cqe_rx_t *cqe_rx, struct snd_queue *sq,
-                               struct sk_buff **skb)
+                               struct rcv_queue *rq, struct sk_buff **skb)
 {
        struct xdp_buff xdp;
        struct page *page;
        xdp.data = (void *)cpu_addr;
        xdp_set_data_meta_invalid(&xdp);
        xdp.data_end = xdp.data + len;
+       xdp.rxq = &rq->xdp_rxq;
        orig_data = xdp.data;
 
        rcu_read_lock();
 
 static void nicvf_rcv_pkt_handler(struct net_device *netdev,
                                  struct napi_struct *napi,
-                                 struct cqe_rx_t *cqe_rx, struct snd_queue *sq)
+                                 struct cqe_rx_t *cqe_rx,
+                                 struct snd_queue *sq, struct rcv_queue *rq)
 {
        struct sk_buff *skb = NULL;
        struct nicvf *nic = netdev_priv(netdev);
        /* For XDP, ignore pkts spanning multiple pages */
        if (nic->xdp_prog && (cqe_rx->rb_cnt == 1)) {
                /* Packet consumed by XDP */
-               if (nicvf_xdp_rx(snic, nic->xdp_prog, cqe_rx, sq, &skb))
+               if (nicvf_xdp_rx(snic, nic->xdp_prog, cqe_rx, sq, rq, &skb))
                        return;
        } else {
                skb = nicvf_get_rcv_skb(snic, cqe_rx,
        struct cqe_rx_t *cq_desc;
        struct netdev_queue *txq;
        struct snd_queue *sq = &qs->sq[cq_idx];
+       struct rcv_queue *rq = &qs->rq[cq_idx];
        unsigned int tx_pkts = 0, tx_bytes = 0, txq_idx;
 
        spin_lock_bh(&cq->lock);
 
                switch (cq_desc->cqe_type) {
                case CQE_TYPE_RX:
-                       nicvf_rcv_pkt_handler(netdev, napi, cq_desc, sq);
+                       nicvf_rcv_pkt_handler(netdev, napi, cq_desc, sq, rq);
                        work_done++;
                break;
                case CQE_TYPE_SEND:
 
 
        if (!rq->enable) {
                nicvf_reclaim_rcv_queue(nic, qs, qidx);
+               xdp_rxq_info_unreg(&rq->xdp_rxq);
                return;
        }
 
        /* all writes of RBDR data to be loaded into L2 Cache as well*/
        rq->caching = 1;
 
+       /* Driver have no proper error path for failed XDP RX-queue info reg */
+       WARN_ON(xdp_rxq_info_reg(&rq->xdp_rxq, nic->netdev, qidx) < 0);
+
        /* Send a mailbox msg to PF to config RQ */
        mbx.rq.msg = NIC_MBOX_MSG_RQ_CFG;
        mbx.rq.qs_num = qs->vnic_id;