/*
  * nx_huge_pages needs to be resolved to true/false when kvm.ko is loaded, as
  * its default value of -1 is technically undefined behavior for a boolean.
+ * Forward the module init call to SPTE code so that it too can handle module
+ * params that need to be resolved/snapshot.
  */
 void __init kvm_mmu_x86_module_init(void)
 {
        if (nx_huge_pages == -1)
                __set_nx_huge_pages(get_nx_auto_mode());
+
+       kvm_mmu_spte_module_init();
 }
 
 /*
 
 #include <asm/vmx.h>
 
 bool __read_mostly enable_mmio_caching = true;
+static bool __ro_after_init allow_mmio_caching;
 module_param_named(mmio_caching, enable_mmio_caching, bool, 0444);
 
 u64 __read_mostly shadow_host_writable_mask;
 
 u8 __read_mostly shadow_phys_bits;
 
+void __init kvm_mmu_spte_module_init(void)
+{
+       /*
+        * Snapshot userspace's desire to allow MMIO caching.  Whether or not
+        * KVM can actually enable MMIO caching depends on vendor-specific
+        * hardware capabilities and other module params that can't be resolved
+        * until the vendor module is loaded, i.e. enable_mmio_caching can and
+        * will change when the vendor module is (re)loaded.
+        */
+       allow_mmio_caching = enable_mmio_caching;
+}
+
 static u64 generation_mmio_spte_mask(u64 gen)
 {
        u64 mask;
        BUG_ON((u64)(unsigned)access_mask != access_mask);
        WARN_ON(mmio_value & shadow_nonpresent_or_rsvd_lower_gfn_mask);
 
+       /*
+        * Reset to the original module param value to honor userspace's desire
+        * to (dis)allow MMIO caching.  Update the param itself so that
+        * userspace can see whether or not KVM is actually using MMIO caching.
+        */
+       enable_mmio_caching = allow_mmio_caching;
        if (!enable_mmio_caching)
                mmio_value = 0;