void kvm_mmu_set_mmio_spte_mask(u64 mmio_mask)
 {
-       shadow_mmio_mask = mmio_mask;
+       shadow_mmio_mask = mmio_mask | SPTE_SPECIAL_MASK;
 }
 EXPORT_SYMBOL_GPL(kvm_mmu_set_mmio_spte_mask);
 
                u64 dirty_mask, u64 nx_mask, u64 x_mask, u64 p_mask,
                u64 acc_track_mask)
 {
+       if (acc_track_mask != 0)
+               acc_track_mask |= SPTE_SPECIAL_MASK;
+
        shadow_user_mask = user_mask;
        shadow_accessed_mask = accessed_mask;
        shadow_dirty_mask = dirty_mask;
 
        /*
         * EPT Misconfigurations can be generated if the value of bits 2:0
         * of an EPT paging-structure entry is 110b (write/execute).
-        * Also, special bit (62) is set to quickly identify mmio spte.
         */
-       kvm_mmu_set_mmio_spte_mask(SPTE_SPECIAL_MASK |
-                                  VMX_EPT_MISCONFIG_WX_VALUE);
+       kvm_mmu_set_mmio_spte_mask(VMX_EPT_MISCONFIG_WX_VALUE);
 }
 
 #define VMX_XSS_EXIT_BITMAP 0
                enable_ept_ad_bits ? VMX_EPT_DIRTY_BIT : 0ull,
                0ull, VMX_EPT_EXECUTABLE_MASK,
                cpu_has_vmx_ept_execute_only() ? 0ull : VMX_EPT_READABLE_MASK,
-               enable_ept_ad_bits ? 0ull : SPTE_SPECIAL_MASK | VMX_EPT_RWX_MASK);
+               enable_ept_ad_bits ? 0ull : VMX_EPT_RWX_MASK);
 
        ept_set_mmio_spte_mask();
        kvm_enable_tdp();
 
         /* Mask the reserved physical address bits. */
        mask = rsvd_bits(maxphyaddr, 51);
 
-       /* Bit 62 is always reserved for 32bit host. */
-       mask |= 0x3ull << 62;
-
        /* Set the present bit. */
        mask |= 1ull;