void vm_mem_region_move(struct kvm_vm *vm, uint32_t slot, uint64_t new_gpa);
 void vm_mem_region_delete(struct kvm_vm *vm, uint32_t slot);
 void vm_vcpu_add(struct kvm_vm *vm, uint32_t vcpuid);
-vm_vaddr_t vm_vaddr_alloc(struct kvm_vm *vm, size_t sz, vm_vaddr_t vaddr_min,
-                         uint32_t data_memslot, uint32_t pgd_memslot);
+vm_vaddr_t vm_vaddr_alloc(struct kvm_vm *vm, size_t sz, vm_vaddr_t vaddr_min);
 vm_vaddr_t vm_vaddr_alloc_pages(struct kvm_vm *vm, int nr_pages);
 vm_vaddr_t vm_vaddr_alloc_page(struct kvm_vm *vm);
 
 
 const char *exit_reason_str(unsigned int exit_reason);
 
-void virt_pgd_alloc(struct kvm_vm *vm, uint32_t pgd_memslot);
+void virt_pgd_alloc(struct kvm_vm *vm);
 
 /*
  * VM Virtual Page Map
 
        return 1 << (vm->page_shift - 3);
 }
 
-void virt_pgd_alloc(struct kvm_vm *vm, uint32_t pgd_memslot)
+void virt_pgd_alloc(struct kvm_vm *vm)
 {
        if (!vm->pgd_created) {
                vm_paddr_t paddr = vm_phy_pages_alloc(vm,
                        page_align(vm, ptrs_per_pgd(vm) * 8) / vm->page_size,
-                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot);
+                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0);
                vm->pgd = paddr;
                vm->pgd_created = true;
        }
                                        DEFAULT_STACK_PGS * vm->page_size :
                                        vm->page_size;
        uint64_t stack_vaddr = vm_vaddr_alloc(vm, stack_size,
-                                       DEFAULT_ARM64_GUEST_STACK_VADDR_MIN, 0, 0);
+                                             DEFAULT_ARM64_GUEST_STACK_VADDR_MIN);
 
        vm_vcpu_add(vm, vcpuid);
        aarch64_vcpu_setup(vm, vcpuid, init);
 
                seg_vend |= vm->page_size - 1;
                size_t seg_size = seg_vend - seg_vstart + 1;
 
-               vm_vaddr_t vaddr = vm_vaddr_alloc(vm, seg_size, seg_vstart, 0, 0);
+               vm_vaddr_t vaddr = vm_vaddr_alloc(vm, seg_size, seg_vstart);
                TEST_ASSERT(vaddr == seg_vstart, "Unable to allocate "
                        "virtual memory for segment at requested min addr,\n"
                        "  segment idx: %u\n"
 
  * a unique set of pages, with the minimum real allocation being at least
  * a page.
  */
-vm_vaddr_t vm_vaddr_alloc(struct kvm_vm *vm, size_t sz, vm_vaddr_t vaddr_min,
-                         uint32_t data_memslot, uint32_t pgd_memslot)
+vm_vaddr_t vm_vaddr_alloc(struct kvm_vm *vm, size_t sz, vm_vaddr_t vaddr_min)
 {
        uint64_t pages = (sz >> vm->page_shift) + ((sz % vm->page_size) != 0);
 
-       virt_pgd_alloc(vm, pgd_memslot);
+       virt_pgd_alloc(vm);
        vm_paddr_t paddr = vm_phy_pages_alloc(vm, pages,
-                                             KVM_UTIL_MIN_PFN * vm->page_size,
-                                             data_memslot);
+                                             KVM_UTIL_MIN_PFN * vm->page_size, 0);
 
        /*
         * Find an unused range of virtual page addresses of at least
        for (vm_vaddr_t vaddr = vaddr_start; pages > 0;
                pages--, vaddr += vm->page_size, paddr += vm->page_size) {
 
-               virt_pg_map(vm, vaddr, paddr, pgd_memslot);
+               virt_pg_map(vm, vaddr, paddr, 0);
 
                sparsebit_set(vm->vpages_mapped,
                        vaddr >> vm->page_shift);
  */
 vm_vaddr_t vm_vaddr_alloc_pages(struct kvm_vm *vm, int nr_pages)
 {
-       return vm_vaddr_alloc(vm, nr_pages * getpagesize(), KVM_UTIL_MIN_VADDR, 0, 0);
+       return vm_vaddr_alloc(vm, nr_pages * getpagesize(), KVM_UTIL_MIN_VADDR);
 }
 
 /*
 
 
 #define PAGES_PER_REGION 4
 
-void virt_pgd_alloc(struct kvm_vm *vm, uint32_t memslot)
+void virt_pgd_alloc(struct kvm_vm *vm)
 {
        vm_paddr_t paddr;
 
                return;
 
        paddr = vm_phy_pages_alloc(vm, PAGES_PER_REGION,
-                                  KVM_GUEST_PAGE_TABLE_MIN_PADDR, memslot);
+                                  KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0);
        memset(addr_gpa2hva(vm, paddr), 0xff, PAGES_PER_REGION * vm->page_size);
 
        vm->pgd = paddr;
                    vm->page_size);
 
        stack_vaddr = vm_vaddr_alloc(vm, stack_size,
-                                    DEFAULT_GUEST_STACK_VADDR_MIN, 0, 0);
+                                    DEFAULT_GUEST_STACK_VADDR_MIN);
 
        vm_vcpu_add(vm, vcpuid);
 
 
        }
 }
 
-void virt_pgd_alloc(struct kvm_vm *vm, uint32_t pgd_memslot)
+void virt_pgd_alloc(struct kvm_vm *vm)
 {
        TEST_ASSERT(vm->mode == VM_MODE_PXXV48_4K, "Attempt to use "
                "unknown or unsupported guest mode, mode: 0x%x", vm->mode);
        /* If needed, create page map l4 table. */
        if (!vm->pgd_created) {
                vm_paddr_t paddr = vm_phy_page_alloc(vm,
-                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot);
+                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0);
                vm->pgd = paddr;
                vm->pgd_created = true;
        }
        struct kvm_regs regs;
        vm_vaddr_t stack_vaddr;
        stack_vaddr = vm_vaddr_alloc(vm, DEFAULT_STACK_PGS * getpagesize(),
-                                    DEFAULT_GUEST_STACK_VADDR_MIN, 0, 0);
+                                    DEFAULT_GUEST_STACK_VADDR_MIN);
 
        /* Create VCPU */
        vm_vcpu_add(vm, vcpuid);
 
 struct kvm_cpuid2 *vcpu_alloc_cpuid(struct kvm_vm *vm, vm_vaddr_t *p_gva, struct kvm_cpuid2 *cpuid)
 {
        int size = sizeof(*cpuid) + cpuid->nent * sizeof(cpuid->entries[0]);
-       vm_vaddr_t gva = vm_vaddr_alloc(vm, size, KVM_UTIL_MIN_VADDR, 0, 0);
+       vm_vaddr_t gva = vm_vaddr_alloc(vm, size, KVM_UTIL_MIN_VADDR);
        struct kvm_cpuid2 *guest_cpuids = addr_gva2hva(vm, gva);
 
        memcpy(guest_cpuids, cpuid, size);