LIBKVM += lib/rbtree.c
 LIBKVM += lib/sparsebit.c
 LIBKVM += lib/test_util.c
+LIBKVM += lib/ucall_common.c
 
 LIBKVM_STRING += lib/string_override.c
 
 
        uint64_t args[UCALL_MAX_ARGS];
 };
 
-void ucall_init(struct kvm_vm *vm, void *arg);
-void ucall_uninit(struct kvm_vm *vm);
+void ucall_arch_init(struct kvm_vm *vm, void *arg);
+void ucall_arch_uninit(struct kvm_vm *vm);
+void ucall_arch_do_ucall(vm_vaddr_t uc);
+uint64_t ucall_arch_get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc);
+
 void ucall(uint64_t cmd, int nargs, ...);
-uint64_t get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc);
+
+static inline void ucall_init(struct kvm_vm *vm, void *arg)
+{
+       ucall_arch_init(vm, arg);
+}
+
+static inline void ucall_uninit(struct kvm_vm *vm)
+{
+       ucall_arch_uninit(vm);
+}
+
+static inline uint64_t get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
+{
+       return ucall_arch_get_ucall(vcpu, uc);
+}
 
 #define GUEST_SYNC_ARGS(stage, arg1, arg2, arg3, arg4) \
                                ucall(UCALL_SYNC, 6, "hello", stage, arg1, arg2, arg3, arg4)
 
        return true;
 }
 
-void ucall_init(struct kvm_vm *vm, void *arg)
+void ucall_arch_init(struct kvm_vm *vm, void *arg)
 {
        vm_paddr_t gpa, start, end, step, offset;
        unsigned int bits;
        TEST_FAIL("Can't find a ucall mmio address");
 }
 
-void ucall_uninit(struct kvm_vm *vm)
+void ucall_arch_uninit(struct kvm_vm *vm)
 {
        ucall_exit_mmio_addr = 0;
        sync_global_to_guest(vm, ucall_exit_mmio_addr);
 }
 
-void ucall(uint64_t cmd, int nargs, ...)
+void ucall_arch_do_ucall(vm_vaddr_t uc)
 {
-       struct ucall uc = {};
-       va_list va;
-       int i;
-
-       WRITE_ONCE(uc.cmd, cmd);
-       nargs = min(nargs, UCALL_MAX_ARGS);
-
-       va_start(va, nargs);
-       for (i = 0; i < nargs; ++i)
-               WRITE_ONCE(uc.args[i], va_arg(va, uint64_t));
-       va_end(va);
-
-       WRITE_ONCE(*ucall_exit_mmio_addr, (vm_vaddr_t)&uc);
+       WRITE_ONCE(*ucall_exit_mmio_addr, uc);
 }
 
-uint64_t get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
+uint64_t ucall_arch_get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
 {
        struct kvm_run *run = vcpu->run;
        struct ucall ucall = {};
 
 #include "kvm_util.h"
 #include "processor.h"
 
-void ucall_init(struct kvm_vm *vm, void *arg)
+void ucall_arch_init(struct kvm_vm *vm, void *arg)
 {
 }
 
-void ucall_uninit(struct kvm_vm *vm)
+void ucall_arch_uninit(struct kvm_vm *vm)
 {
 }
 
        return ret;
 }
 
-void ucall(uint64_t cmd, int nargs, ...)
+void ucall_arch_do_ucall(vm_vaddr_t uc)
 {
-       struct ucall uc = {
-               .cmd = cmd,
-       };
-       va_list va;
-       int i;
-
-       nargs = min(nargs, UCALL_MAX_ARGS);
-
-       va_start(va, nargs);
-       for (i = 0; i < nargs; ++i)
-               uc.args[i] = va_arg(va, uint64_t);
-       va_end(va);
-
        sbi_ecall(KVM_RISCV_SELFTESTS_SBI_EXT,
                  KVM_RISCV_SELFTESTS_SBI_UCALL,
-                 (vm_vaddr_t)&uc, 0, 0, 0, 0, 0);
+                 uc, 0, 0, 0, 0, 0);
 }
 
-uint64_t get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
+uint64_t ucall_arch_get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
 {
        struct kvm_run *run = vcpu->run;
        struct ucall ucall = {};
 
  */
 #include "kvm_util.h"
 
-void ucall_init(struct kvm_vm *vm, void *arg)
+void ucall_arch_init(struct kvm_vm *vm, void *arg)
 {
 }
 
-void ucall_uninit(struct kvm_vm *vm)
+void ucall_arch_uninit(struct kvm_vm *vm)
 {
 }
 
-void ucall(uint64_t cmd, int nargs, ...)
+void ucall_arch_do_ucall(vm_vaddr_t uc)
 {
-       struct ucall uc = {
-               .cmd = cmd,
-       };
-       va_list va;
-       int i;
-
-       nargs = min(nargs, UCALL_MAX_ARGS);
-
-       va_start(va, nargs);
-       for (i = 0; i < nargs; ++i)
-               uc.args[i] = va_arg(va, uint64_t);
-       va_end(va);
-
        /* Exit via DIAGNOSE 0x501 (normally used for breakpoints) */
-       asm volatile ("diag 0,%0,0x501" : : "a"(&uc) : "memory");
+       asm volatile ("diag 0,%0,0x501" : : "a"(uc) : "memory");
 }
 
-uint64_t get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
+uint64_t ucall_arch_get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
 {
        struct kvm_run *run = vcpu->run;
        struct ucall ucall = {};
 
--- /dev/null
+// SPDX-License-Identifier: GPL-2.0-only
+#include "kvm_util.h"
+
+void ucall(uint64_t cmd, int nargs, ...)
+{
+       struct ucall uc = {};
+       va_list va;
+       int i;
+
+       WRITE_ONCE(uc.cmd, cmd);
+
+       nargs = min(nargs, UCALL_MAX_ARGS);
+
+       va_start(va, nargs);
+       for (i = 0; i < nargs; ++i)
+               WRITE_ONCE(uc.args[i], va_arg(va, uint64_t));
+       va_end(va);
+
+       ucall_arch_do_ucall((vm_vaddr_t)&uc);
+}
 
 
 #define UCALL_PIO_PORT ((uint16_t)0x1000)
 
-void ucall_init(struct kvm_vm *vm, void *arg)
+void ucall_arch_init(struct kvm_vm *vm, void *arg)
 {
 }
 
-void ucall_uninit(struct kvm_vm *vm)
+void ucall_arch_uninit(struct kvm_vm *vm)
 {
 }
 
-void ucall(uint64_t cmd, int nargs, ...)
+void ucall_arch_do_ucall(vm_vaddr_t uc)
 {
-       struct ucall uc = {
-               .cmd = cmd,
-       };
-       va_list va;
-       int i;
-
-       nargs = min(nargs, UCALL_MAX_ARGS);
-
-       va_start(va, nargs);
-       for (i = 0; i < nargs; ++i)
-               uc.args[i] = va_arg(va, uint64_t);
-       va_end(va);
-
        asm volatile("in %[port], %%al"
-               : : [port] "d" (UCALL_PIO_PORT), "D" (&uc) : "rax", "memory");
+               : : [port] "d" (UCALL_PIO_PORT), "D" (uc) : "rax", "memory");
 }
 
-uint64_t get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
+uint64_t ucall_arch_get_ucall(struct kvm_vcpu *vcpu, struct ucall *uc)
 {
        struct kvm_run *run = vcpu->run;
        struct ucall ucall = {};