struct svm_range_bo *svm_bo;
 
        svm_bo = container_of(kref, struct svm_range_bo, kref);
+       pr_debug("svm_bo 0x%p\n", svm_bo);
+
        spin_lock(&svm_bo->list_lock);
        while (!list_empty(&svm_bo->range_list)) {
                struct svm_range *prange =
        kfree(svm_bo);
 }
 
-void svm_range_bo_unref(struct svm_range_bo *svm_bo)
+static void svm_range_bo_wq_release(struct work_struct *work)
 {
-       if (!svm_bo)
-               return;
+       struct svm_range_bo *svm_bo;
+
+       svm_bo = container_of(work, struct svm_range_bo, release_work);
+       svm_range_bo_release(&svm_bo->kref);
+}
+
+static void svm_range_bo_release_async(struct kref *kref)
+{
+       struct svm_range_bo *svm_bo;
+
+       svm_bo = container_of(kref, struct svm_range_bo, kref);
+       pr_debug("svm_bo 0x%p\n", svm_bo);
+       INIT_WORK(&svm_bo->release_work, svm_range_bo_wq_release);
+       schedule_work(&svm_bo->release_work);
+}
 
-       kref_put(&svm_bo->kref, svm_range_bo_release);
+void svm_range_bo_unref_async(struct svm_range_bo *svm_bo)
+{
+       kref_put(&svm_bo->kref, svm_range_bo_release_async);
+}
+
+static void svm_range_bo_unref(struct svm_range_bo *svm_bo)
+{
+       if (svm_bo)
+               kref_put(&svm_bo->kref, svm_range_bo_release);
 }
 
 static bool
 
        struct work_struct              eviction_work;
        struct svm_range_list           *svms;
        uint32_t                        evicting;
+       struct work_struct              release_work;
 };
 
 enum svm_work_list_ops {
  */
 #define KFD_IS_SVM_API_SUPPORTED(dev) ((dev)->pgmap.type != 0)
 
-void svm_range_bo_unref(struct svm_range_bo *svm_bo);
+void svm_range_bo_unref_async(struct svm_range_bo *svm_bo);
 #else
 
 struct kfd_process;