extern void mtrr_bp_restore(void);
 extern int mtrr_trim_uncached_memory(unsigned long end_pfn);
 extern int amd_special_default_mtrr(void);
+void mtrr_disable(void);
+void mtrr_enable(void);
 #  else
 static inline u8 mtrr_type_lookup(u64 addr, u64 end, u8 *uniform)
 {
 #define set_mtrr_aps_delayed_init() do {} while (0)
 #define mtrr_aps_init() do {} while (0)
 #define mtrr_bp_restore() do {} while (0)
+#define mtrr_disable() do {} while (0)
+#define mtrr_enable() do {} while (0)
 #  endif
 
 #ifdef CONFIG_COMPAT
 
        return change_mask;
 }
 
+void mtrr_disable(void)
+{
+       /* Save MTRR state */
+       rdmsr(MSR_MTRRdefType, deftype_lo, deftype_hi);
+
+       /* Disable MTRRs, and set the default type to uncached */
+       mtrr_wrmsr(MSR_MTRRdefType, deftype_lo & ~0xcff, deftype_hi);
+}
+
+void mtrr_enable(void)
+{
+       /* Intel (P6) standard MTRRs */
+       mtrr_wrmsr(MSR_MTRRdefType, deftype_lo, deftype_hi);
+}
+
 /*
  * Disable and enable caches. Needed for changing MTRRs and the PAT MSR.
  *
        count_vm_tlb_event(NR_TLB_LOCAL_FLUSH_ALL);
        flush_tlb_local();
 
-       /* Save MTRR state */
-       rdmsr(MSR_MTRRdefType, deftype_lo, deftype_hi);
-
-       /* Disable MTRRs, and set the default type to uncached */
-       mtrr_wrmsr(MSR_MTRRdefType, deftype_lo & ~0xcff, deftype_hi);
+       if (cpu_feature_enabled(X86_FEATURE_MTRR))
+               mtrr_disable();
 
        /* Again, only flush caches if we have to. */
        if (!static_cpu_has(X86_FEATURE_SELFSNOOP))
        count_vm_tlb_event(NR_TLB_LOCAL_FLUSH_ALL);
        flush_tlb_local();
 
-       /* Intel (P6) standard MTRRs */
-       mtrr_wrmsr(MSR_MTRRdefType, deftype_lo, deftype_hi);
+       if (cpu_feature_enabled(X86_FEATURE_MTRR))
+               mtrr_enable();
 
        /* Enable caches */
        write_cr0(read_cr0() & ~X86_CR0_CD);