* drm_sched_job_done - complete a job
  * @s_job: pointer to the job which is done
  *
- * Finish the job's fence and wake up the worker thread.
+ * Finish the job's fence and resubmit the work items.
  */
 static void drm_sched_job_done(struct drm_sched_job *s_job, int result)
 {
 
        if (job) {
                /*
-                * Remove the bad job so it cannot be freed by concurrent
-                * drm_sched_cleanup_jobs. It will be reinserted back after sched->thread
-                * is parked at which point it's safe.
+                * Remove the bad job so it cannot be freed by a concurrent
+                * &struct drm_sched_backend_ops.free_job. It will be
+                * reinserted after the scheduler's work items have been
+                * cancelled, at which point it's safe.
                 */
                list_del_init(&job->list);
                spin_unlock(&sched->job_list_lock);
 
        /*
         * Reinsert back the bad job here - now it's safe as
-        * drm_sched_get_finished_job cannot race against us and release the
+        * drm_sched_get_finished_job() cannot race against us and release the
         * bad job at this point - we parked (waited for) any in progress
-        * (earlier) cleanups and drm_sched_get_finished_job will not be called
-        * now until the scheduler thread is unparked.
+        * (earlier) cleanups and drm_sched_get_finished_job() will not be
+        * called now until the scheduler's work items are submitted again.
         */
        if (bad && bad->sched == sched)
                /*
         * Iterate the job list from later to  earlier one and either deactive
         * their HW callbacks or remove them from pending list if they already
         * signaled.
-        * This iteration is thread safe as sched thread is stopped.
+        * This iteration is thread safe as the scheduler's work items have been
+        * cancelled.
         */
        list_for_each_entry_safe_reverse(s_job, tmp, &sched->pending_list,
                                         list) {
        struct drm_sched_job *s_job, *tmp;
 
        /*
-        * Locking the list is not required here as the sched thread is parked
-        * so no new jobs are being inserted or removed. Also concurrent
-        * GPU recovers can't run in parallel.
+        * Locking the list is not required here as the scheduler's work items
+        * are currently not running, so no new jobs are being inserted or
+        * removed. Also concurrent GPU recovers can't run in parallel.
         */
        list_for_each_entry_safe(s_job, tmp, &sched->pending_list, list) {
                struct dma_fence *fence = s_job->s_fence->parent;