static struct dma_fence *ops_execute(struct xe_vm *vm,
                                     struct xe_vma_ops *vops);
-static void xe_vma_ops_init(struct xe_vma_ops *vops);
+static void xe_vma_ops_init(struct xe_vma_ops *vops, struct xe_vm *vm,
+                           struct xe_exec_queue *q,
+                           struct xe_sync_entry *syncs, u32 num_syncs);
 
 int xe_vm_rebind(struct xe_vm *vm, bool rebind_worker)
 {
            list_empty(&vm->rebind_list))
                return 0;
 
-       xe_vma_ops_init(&vops);
+       xe_vma_ops_init(&vops, vm, NULL, NULL, 0);
 
        xe_vm_assert_held(vm);
        list_for_each_entry(vma, &vm->rebind_list, combined_links.rebind) {
        xe_vm_assert_held(vm);
        xe_assert(vm->xe, xe_vm_in_fault_mode(vm));
 
-       xe_vma_ops_init(&vops);
+       xe_vma_ops_init(&vops, vm, NULL, NULL, 0);
 
        err = xe_vm_ops_add_rebind(&vops, vma, tile_mask);
        if (err)
        return err;
 }
 
-static void xe_vma_ops_init(struct xe_vma_ops *vops)
+static void xe_vma_ops_init(struct xe_vma_ops *vops, struct xe_vm *vm,
+                           struct xe_exec_queue *q,
+                           struct xe_sync_entry *syncs, u32 num_syncs)
 {
+       memset(vops, 0, sizeof(*vops));
        INIT_LIST_HEAD(&vops->list);
+       vops->vm = vm;
+       vops->q = q;
+       vops->syncs = syncs;
+       vops->num_syncs = num_syncs;
 }
 
 int xe_vm_bind_ioctl(struct drm_device *dev, void *data, struct drm_file *file)
                goto free_syncs;
        }
 
-       xe_vma_ops_init(&vops);
+       xe_vma_ops_init(&vops, vm, q, syncs, num_syncs);
        for (i = 0; i < args->num_binds; ++i) {
                u64 range = bind_ops[i].range;
                u64 addr = bind_ops[i].addr;