IS_ENABLED(CONFIG_DRM_XE_DEVMEM_MIRROR) ? SZ_64K : 0,
                .devmem_only = atomic && IS_DGFX(vm->xe) &&
                        IS_ENABLED(CONFIG_DRM_XE_DEVMEM_MIRROR),
+               .timeslice_ms = atomic && IS_DGFX(vm->xe) &&
+                       IS_ENABLED(CONFIG_DRM_XE_DEVMEM_MIRROR) ? 5 : 0,
        };
        struct xe_svm_range *range;
        struct drm_gpusvm_range *r;
        if (--migrate_try_count >= 0 &&
            xe_svm_range_needs_migrate_to_vram(range, vma)) {
                err = xe_svm_alloc_vram(vm, tile, range, &ctx);
+               ctx.timeslice_ms <<= 1; /* Double timeslice if we have to retry */
                if (err) {
                        if (migrate_try_count || !ctx.devmem_only) {
                                drm_dbg(&vm->xe->drm,
        err = drm_gpusvm_range_get_pages(&vm->svm.gpusvm, r, &ctx);
        /* Corner where CPU mappings have changed */
        if (err == -EOPNOTSUPP || err == -EFAULT || err == -EPERM) {
+               ctx.timeslice_ms <<= 1; /* Double timeslice if we have to retry */
                if (migrate_try_count > 0 || !ctx.devmem_only) {
                        if (err == -EOPNOTSUPP) {
                                range_debug(range, "PAGE FAULT - EVICT PAGES");
                        drm_exec_fini(&exec);
                        err = PTR_ERR(fence);
                        if (err == -EAGAIN) {
+                               ctx.timeslice_ms <<= 1; /* Double timeslice if we have to retry */
                                range_debug(range, "PAGE FAULT - RETRY BIND");
                                goto retry;
                        }