else
                current->mce_kill_me.func = kill_me_maybe;
 
-       task_work_add(current, ¤t->mce_kill_me, true);
+       task_work_add(current, ¤t->mce_kill_me, TWA_RESUME);
 }
 
 /*
 
         * callback has been invoked.
         */
        atomic_inc(&rdtgrp->waitcount);
-       ret = task_work_add(tsk, &callback->work, true);
+       ret = task_work_add(tsk, &callback->work, TWA_RESUME);
        if (ret) {
                /*
                 * Task is exiting. Drop the refcount and free the callback.
 
                        estatus_node->task_work.func = ghes_kick_task_work;
                        estatus_node->task_work_cpu = smp_processor_id();
                        ret = task_work_add(current, &estatus_node->task_work,
-                                           true);
+                                           TWA_RESUME);
                        if (ret)
                                estatus_node->task_work.func = NULL;
                }
 
        __close_fd_get_file(fd, &twcb->file);
        if (twcb->file) {
                filp_close(twcb->file, current->files);
-               task_work_add(current, &twcb->twork, true);
+               task_work_add(current, &twcb->twork, TWA_RESUME);
        } else {
                kfree(twcb);
        }
 
 
                if (likely(!in_interrupt() && !(task->flags & PF_KTHREAD))) {
                        init_task_work(&file->f_u.fu_rcuhead, ____fput);
-                       if (!task_work_add(task, &file->f_u.fu_rcuhead, true))
+                       if (!task_work_add(task, &file->f_u.fu_rcuhead, TWA_RESUME))
                                return;
                        /*
                         * After this task has run exit_task_work(),
 
 {
        struct task_struct *tsk = req->task;
        struct io_ring_ctx *ctx = req->ctx;
-       int ret, notify;
+       enum task_work_notify_mode notify;
+       int ret;
 
        if (tsk->flags & PF_EXITING)
                return -ESRCH;
         * processing task_work. There's no reliable way to tell if TWA_RESUME
         * will do the job.
         */
-       notify = 0;
+       notify = TWA_NONE;
        if (!(ctx->flags & IORING_SETUP_SQPOLL) && twa_signal_ok)
                notify = TWA_SIGNAL;
 
 
                init_task_work(&req->task_work, io_req_task_cancel);
                tsk = io_wq_get_task(req->ctx->io_wq);
-               task_work_add(tsk, &req->task_work, 0);
+               task_work_add(tsk, &req->task_work, TWA_NONE);
                wake_up_process(tsk);
        }
 }
                struct task_struct *tsk;
 
                tsk = io_wq_get_task(req->ctx->io_wq);
-               task_work_add(tsk, &req->task_work, 0);
+               task_work_add(tsk, &req->task_work, TWA_NONE);
                wake_up_process(tsk);
        }
 }
                /* queue just for cancelation */
                init_task_work(&req->task_work, io_req_task_cancel);
                tsk = io_wq_get_task(req->ctx->io_wq);
-               task_work_add(tsk, &req->task_work, 0);
+               task_work_add(tsk, &req->task_work, TWA_NONE);
                wake_up_process(tsk);
        }
        return 1;
 
                WRITE_ONCE(poll->canceled, true);
                tsk = io_wq_get_task(req->ctx->io_wq);
-               task_work_add(tsk, &req->task_work, 0);
+               task_work_add(tsk, &req->task_work, TWA_NONE);
                wake_up_process(tsk);
        }
        return 1;
 
                struct task_struct *task = current;
                if (likely(!(task->flags & PF_KTHREAD))) {
                        init_task_work(&mnt->mnt_rcu, __cleanup_mnt);
-                       if (!task_work_add(task, &mnt->mnt_rcu, true))
+                       if (!task_work_add(task, &mnt->mnt_rcu, TWA_RESUME))
                                return;
                }
                if (llist_add(&mnt->mnt_llist, &delayed_mntput_list))
 
        twork->func = func;
 }
 
-#define TWA_RESUME     1
-#define TWA_SIGNAL     2
-int task_work_add(struct task_struct *task, struct callback_head *twork, int);
+enum task_work_notify_mode {
+       TWA_NONE,
+       TWA_RESUME,
+       TWA_SIGNAL,
+};
+
+int task_work_add(struct task_struct *task, struct callback_head *twork,
+                       enum task_work_notify_mode mode);
 
 struct callback_head *task_work_cancel(struct task_struct *, task_work_func_t);
 void task_work_run(void);
 
 
        t->utask->dup_xol_addr = area->vaddr;
        init_task_work(&t->utask->dup_xol_work, dup_xol_work);
-       task_work_add(t, &t->utask->dup_xol_work, true);
+       task_work_add(t, &t->utask->dup_xol_work, TWA_RESUME);
 }
 
 /*
 
                handler_fn = irq_thread_fn;
 
        init_task_work(&on_exit_work, irq_thread_dtor);
-       task_work_add(current, &on_exit_work, false);
+       task_work_add(current, &on_exit_work, TWA_NONE);
 
        irq_thread_check_affinity(desc, action);
 
 
                curr->node_stamp += period;
 
                if (!time_before(jiffies, curr->mm->numa_next_scan))
-                       task_work_add(curr, work, true);
+                       task_work_add(curr, work, TWA_RESUME);
        }
 }
 
 
  * task_work_add - ask the @task to execute @work->func()
  * @task: the task which should run the callback
  * @work: the callback to run
- * @notify: send the notification if true
+ * @notify: how to notify the targeted task
  *
- * Queue @work for task_work_run() below and notify the @task if @notify.
- * Fails if the @task is exiting/exited and thus it can't process this @work.
- * Otherwise @work->func() will be called when the @task returns from kernel
- * mode or exits.
+ * Queue @work for task_work_run() below and notify the @task if @notify
+ * is @TWA_RESUME or @TWA_SIGNAL. @TWA_SIGNAL works like signals, in that the
+ * it will interrupt the targeted task and run the task_work. @TWA_RESUME
+ * work is run only when the task exits the kernel and returns to user mode,
+ * or before entering guest mode. Fails if the @task is exiting/exited and thus
+ * it can't process this @work. Otherwise @work->func() will be called when the
+ * @task goes through one of the aforementioned transitions, or exits.
  *
- * This is like the signal handler which runs in kernel mode, but it doesn't
- * try to wake up the @task.
+ * If the targeted task is exiting, then an error is returned and the work item
+ * is not queued. It's up to the caller to arrange for an alternative mechanism
+ * in that case.
  *
- * Note: there is no ordering guarantee on works queued here.
+ * Note: there is no ordering guarantee on works queued here. The task_work
+ * list is LIFO.
  *
  * RETURNS:
  * 0 if succeeds or -ESRCH.
  */
-int
-task_work_add(struct task_struct *task, struct callback_head *work, int notify)
+int task_work_add(struct task_struct *task, struct callback_head *work,
+                 enum task_work_notify_mode notify)
 {
        struct callback_head *head;
        unsigned long flags;
        } while (cmpxchg(&task->task_works, head, work) != head);
 
        switch (notify) {
+       case TWA_NONE:
+               break;
        case TWA_RESUME:
                set_notify_resume(task);
                break;
                        unlock_task_sighand(task, &flags);
                }
                break;
+       default:
+               WARN_ON_ONCE(1);
+               break;
        }
 
        return 0;
 
 
        /* the replacement session keyring is applied just prior to userspace
         * restarting */
-       ret = task_work_add(parent, newwork, true);
+       ret = task_work_add(parent, newwork, TWA_RESUME);
        if (!ret)
                newwork = NULL;
 unlock:
 
        info->access = access;
        info->target = target;
        info->agent = agent;
-       if (task_work_add(current, &info->work, true) == 0)
+       if (task_work_add(current, &info->work, TWA_RESUME) == 0)
                return; /* success */
 
        WARN(1, "report_access called from exiting task");