io_req_complete_failed(req, ret);
 }
 
-static void __io_poll_execute(struct io_kiocb *req, int mask,
-                             __poll_t __maybe_unused events)
+static void __io_poll_execute(struct io_kiocb *req, int mask)
 {
        io_req_set_res(req, mask, 0);
        /*
        io_req_task_work_add(req);
 }
 
-static inline void io_poll_execute(struct io_kiocb *req, int res,
-               __poll_t events)
+static inline void io_poll_execute(struct io_kiocb *req, int res)
 {
        if (io_poll_get_ownership(req))
-               __io_poll_execute(req, res, events);
+               __io_poll_execute(req, res);
 }
 
 static void io_poll_cancel_req(struct io_kiocb *req)
 {
        io_poll_mark_cancelled(req);
        /* kick tw, which should complete the request */
-       io_poll_execute(req, 0, 0);
+       io_poll_execute(req, 0);
 }
 
 #define IO_ASYNC_POLL_COMMON   (EPOLLONESHOT | EPOLLPRI)
        if (unlikely(mask & POLLFREE)) {
                io_poll_mark_cancelled(req);
                /* we have to kick tw in case it's not already */
-               io_poll_execute(req, 0, poll->events);
+               io_poll_execute(req, 0);
 
                /*
                 * If the waitqueue is being freed early but someone is already
                        else
                                req->flags &= ~REQ_F_SINGLE_POLL;
                }
-               __io_poll_execute(req, mask, poll->events);
+               __io_poll_execute(req, mask);
        }
        return 1;
 }
                        req->apoll_events |= EPOLLONESHOT;
                        ipt->error = 0;
                }
-               __io_poll_execute(req, mask, poll->events);
+               __io_poll_execute(req, mask);
                return 0;
        }
 
         */
        v = atomic_dec_return(&req->poll_refs);
        if (unlikely(v & IO_POLL_REF_MASK))
-               __io_poll_execute(req, 0, poll->events);
+               __io_poll_execute(req, 0);
        return 0;
 }