if new KVM_*_SREGS2 ioctls are used, the PDPTRs are
a part of the migration state and are correctly
restored by those ioctls.
Signed-off-by: Maxim Levitsky <mlevitsk@redhat.com>
Message-Id: <
20210607090203.133058-9-mlevitsk@redhat.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
 
        /* Protected Guests */
        bool guest_state_protected;
 
+       /*
+        * Set when PDPTS were loaded directly by the userspace without
+        * reading the guest memory
+        */
+       bool pdptrs_from_userspace;
+
 #if IS_ENABLED(CONFIG_HYPERV)
        hpa_t hv_root_tdp;
 #endif
 
        if (WARN_ON(!is_guest_mode(vcpu)))
                return true;
 
-       if (!nested_npt_enabled(svm) && is_pae_paging(vcpu))
+       if (!vcpu->arch.pdptrs_from_userspace &&
+           !nested_npt_enabled(svm) && is_pae_paging(vcpu))
                /*
                 * Reload the guest's PDPTRs since after a migration
                 * the guest CR3 might be restored prior to setting the nested
 
        struct page *page;
        u64 hpa;
 
-       if (!nested_cpu_has_ept(vmcs12) && is_pae_paging(vcpu)) {
+       if (!vcpu->arch.pdptrs_from_userspace &&
+           !nested_cpu_has_ept(vmcs12) && is_pae_paging(vcpu)) {
                /*
                 * Reload the guest's PDPTRs since after a migration
                 * the guest CR3 might be restored prior to setting the nested
 
 
        memcpy(mmu->pdptrs, pdpte, sizeof(mmu->pdptrs));
        kvm_register_mark_dirty(vcpu, VCPU_EXREG_PDPTR);
+       vcpu->arch.pdptrs_from_userspace = false;
+
 out:
 
        return ret;
 
                kvm_register_mark_dirty(vcpu, VCPU_EXREG_PDPTR);
                mmu_reset_needed = 1;
+               vcpu->arch.pdptrs_from_userspace = true;
        }
        if (mmu_reset_needed)
                kvm_mmu_reset_context(vcpu);