* 2) Execute CACOP/IDLE instructions;
  * 3) Access to unimplemented CSRs/IOCSRs.
  */
-static int kvm_handle_gspr(struct kvm_vcpu *vcpu)
+static int kvm_handle_gspr(struct kvm_vcpu *vcpu, int ecode)
 {
        int ret = RESUME_GUEST;
        enum emulation_result er = EMULATE_DONE;
        return ret;
 }
 
-static int kvm_handle_read_fault(struct kvm_vcpu *vcpu)
+static int kvm_handle_read_fault(struct kvm_vcpu *vcpu, int ecode)
 {
        return kvm_handle_rdwr_fault(vcpu, false);
 }
 
-static int kvm_handle_write_fault(struct kvm_vcpu *vcpu)
+static int kvm_handle_write_fault(struct kvm_vcpu *vcpu, int ecode)
 {
        return kvm_handle_rdwr_fault(vcpu, true);
 }
 /**
  * kvm_handle_fpu_disabled() - Guest used fpu however it is disabled at host
  * @vcpu:      Virtual CPU context.
+ * @ecode:     Exception code.
  *
  * Handle when the guest attempts to use fpu which hasn't been allowed
  * by the root context.
  */
-static int kvm_handle_fpu_disabled(struct kvm_vcpu *vcpu)
+static int kvm_handle_fpu_disabled(struct kvm_vcpu *vcpu, int ecode)
 {
        struct kvm_run *run = vcpu->run;
 
 /*
  * kvm_handle_lsx_disabled() - Guest used LSX while disabled in root.
  * @vcpu:      Virtual CPU context.
+ * @ecode:     Exception code.
  *
  * Handle when the guest attempts to use LSX when it is disabled in the root
  * context.
  */
-static int kvm_handle_lsx_disabled(struct kvm_vcpu *vcpu)
+static int kvm_handle_lsx_disabled(struct kvm_vcpu *vcpu, int ecode)
 {
        if (kvm_own_lsx(vcpu))
                kvm_queue_exception(vcpu, EXCCODE_INE, 0);
 /*
  * kvm_handle_lasx_disabled() - Guest used LASX while disabled in root.
  * @vcpu:      Virtual CPU context.
+ * @ecode:     Exception code.
  *
  * Handle when the guest attempts to use LASX when it is disabled in the root
  * context.
  */
-static int kvm_handle_lasx_disabled(struct kvm_vcpu *vcpu)
+static int kvm_handle_lasx_disabled(struct kvm_vcpu *vcpu, int ecode)
 {
        if (kvm_own_lasx(vcpu))
                kvm_queue_exception(vcpu, EXCCODE_INE, 0);
        return RESUME_GUEST;
 }
 
-static int kvm_handle_lbt_disabled(struct kvm_vcpu *vcpu)
+static int kvm_handle_lbt_disabled(struct kvm_vcpu *vcpu, int ecode)
 {
        if (kvm_own_lbt(vcpu))
                kvm_queue_exception(vcpu, EXCCODE_INE, 0);
        kvm_write_reg(vcpu, LOONGARCH_GPR_A0, ret);
 }
 
-static int kvm_handle_hypercall(struct kvm_vcpu *vcpu)
+static int kvm_handle_hypercall(struct kvm_vcpu *vcpu, int ecode)
 {
        int ret;
        larch_inst inst;
 /*
  * LoongArch KVM callback handling for unimplemented guest exiting
  */
-static int kvm_fault_ni(struct kvm_vcpu *vcpu)
+static int kvm_fault_ni(struct kvm_vcpu *vcpu, int ecode)
 {
-       unsigned int ecode, inst;
-       unsigned long estat, badv;
+       unsigned int inst;
+       unsigned long badv;
 
        /* Fetch the instruction */
        inst = vcpu->arch.badi;
        badv = vcpu->arch.badv;
-       estat = vcpu->arch.host_estat;
-       ecode = (estat & CSR_ESTAT_EXC) >> CSR_ESTAT_EXC_SHIFT;
        kvm_err("ECode: %d PC=%#lx Inst=0x%08x BadVaddr=%#lx ESTAT=%#lx\n",
                        ecode, vcpu->arch.pc, inst, badv, read_gcsr_estat());
        kvm_arch_vcpu_dump_regs(vcpu);
 
 int kvm_handle_fault(struct kvm_vcpu *vcpu, int fault)
 {
-       return kvm_fault_tables[fault](vcpu);
+       return kvm_fault_tables[fault](vcpu, fault);
 }