* i40e_can_reuse_rx_page - Determine if page can be reused for another Rx
  * @rx_buffer: buffer containing the page
  * @rx_stats: rx stats structure for the rx ring
- * @rx_buffer_pgcnt: buffer page refcount pre xdp_do_redirect() call
  *
  * If page is reusable, we have a green light for calling i40e_reuse_rx_page,
  * which will assign the current buffer to the buffer that next_to_alloc is
  * or busy if it could not be reused.
  */
 static bool i40e_can_reuse_rx_page(struct i40e_rx_buffer *rx_buffer,
-                                  struct i40e_rx_queue_stats *rx_stats,
-                                  int rx_buffer_pgcnt)
+                                  struct i40e_rx_queue_stats *rx_stats)
 {
        unsigned int pagecnt_bias = rx_buffer->pagecnt_bias;
        struct page *page = rx_buffer->page;
 
 #if (PAGE_SIZE < 8192)
        /* if we are only owner of page we can reuse it */
-       if (unlikely((rx_buffer_pgcnt - pagecnt_bias) > 1)) {
+       if (unlikely((rx_buffer->page_count - pagecnt_bias) > 1)) {
                rx_stats->page_busy_count++;
                return false;
        }
  * i40e_get_rx_buffer - Fetch Rx buffer and synchronize data for use
  * @rx_ring: rx descriptor ring to transact packets on
  * @size: size of buffer to add to skb
- * @rx_buffer_pgcnt: buffer page refcount
  *
  * This function will pull an Rx buffer from the ring and synchronize it
  * for use by the CPU.
  */
 static struct i40e_rx_buffer *i40e_get_rx_buffer(struct i40e_ring *rx_ring,
-                                                const unsigned int size,
-                                                int *rx_buffer_pgcnt)
+                                                const unsigned int size)
 {
        struct i40e_rx_buffer *rx_buffer;
 
        rx_buffer = i40e_rx_bi(rx_ring, rx_ring->next_to_clean);
-       *rx_buffer_pgcnt =
+       rx_buffer->page_count =
 #if (PAGE_SIZE < 8192)
                page_count(rx_buffer->page);
 #else
  * i40e_put_rx_buffer - Clean up used buffer and either recycle or free
  * @rx_ring: rx descriptor ring to transact packets on
  * @rx_buffer: rx buffer to pull data from
- * @rx_buffer_pgcnt: rx buffer page refcount pre xdp_do_redirect() call
  *
  * This function will clean up the contents of the rx_buffer.  It will
  * either recycle the buffer or unmap it and free the associated resources.
  */
 static void i40e_put_rx_buffer(struct i40e_ring *rx_ring,
-                              struct i40e_rx_buffer *rx_buffer,
-                              int rx_buffer_pgcnt)
+                              struct i40e_rx_buffer *rx_buffer)
 {
-       if (i40e_can_reuse_rx_page(rx_buffer, &rx_ring->rx_stats, rx_buffer_pgcnt)) {
+       if (i40e_can_reuse_rx_page(rx_buffer, &rx_ring->rx_stats)) {
                /* hand second half of page back to the ring */
                i40e_reuse_rx_page(rx_ring, rx_buffer);
        } else {
        while (likely(total_rx_packets < (unsigned int)budget)) {
                struct i40e_rx_buffer *rx_buffer;
                union i40e_rx_desc *rx_desc;
-               int rx_buffer_pgcnt;
                unsigned int size;
                u64 qword;
 
                        break;
 
                i40e_trace(clean_rx_irq, rx_ring, rx_desc, skb);
-               rx_buffer = i40e_get_rx_buffer(rx_ring, size, &rx_buffer_pgcnt);
+               rx_buffer = i40e_get_rx_buffer(rx_ring, size);
 
                /* retrieve a buffer from the ring */
                if (!skb) {
                        break;
                }
 
-               i40e_put_rx_buffer(rx_ring, rx_buffer, rx_buffer_pgcnt);
+               i40e_put_rx_buffer(rx_ring, rx_buffer);
                cleaned_count++;
 
                i40e_inc_ntc(rx_ring);