#define GDMA_DRV_CAP_FLAG_1_EQ_SHARING_MULTI_VPORT BIT(0)
 
-#define GDMA_DRV_CAP_FLAGS1 GDMA_DRV_CAP_FLAG_1_EQ_SHARING_MULTI_VPORT
+/* Advertise to the NIC firmware: the NAPI work_done variable race is fixed,
+ * so the driver is able to reliably support features like busy_poll.
+ */
+#define GDMA_DRV_CAP_FLAG_1_NAPI_WKDONE_FIX BIT(2)
+
+#define GDMA_DRV_CAP_FLAGS1 \
+       (GDMA_DRV_CAP_FLAG_1_EQ_SHARING_MULTI_VPORT | \
+        GDMA_DRV_CAP_FLAG_1_NAPI_WKDONE_FIX)
 
 #define GDMA_DRV_CAP_FLAGS2 0
 
 
                xdp_do_flush();
 }
 
-static void mana_cq_handler(void *context, struct gdma_queue *gdma_queue)
+static int mana_cq_handler(void *context, struct gdma_queue *gdma_queue)
 {
        struct mana_cq *cq = context;
        u8 arm_bit;
+       int w;
 
        WARN_ON_ONCE(cq->gdma_cq != gdma_queue);
 
        else
                mana_poll_tx_cq(cq);
 
-       if (cq->work_done < cq->budget &&
-           napi_complete_done(&cq->napi, cq->work_done)) {
+       w = cq->work_done;
+
+       if (w < cq->budget &&
+           napi_complete_done(&cq->napi, w)) {
                arm_bit = SET_ARM_BIT;
        } else {
                arm_bit = 0;
        }
 
        mana_gd_ring_cq(gdma_queue, arm_bit);
+
+       return w;
 }
 
 static int mana_poll(struct napi_struct *napi, int budget)
 {
        struct mana_cq *cq = container_of(napi, struct mana_cq, napi);
+       int w;
 
        cq->work_done = 0;
        cq->budget = budget;
 
-       mana_cq_handler(cq, cq->gdma_cq);
+       w = mana_cq_handler(cq, cq->gdma_cq);
 
-       return min(cq->work_done, budget);
+       return min(w, budget);
 }
 
 static void mana_schedule_napi(void *context, struct gdma_queue *gdma_queue)