void cache_disable(void);
 void cache_enable(void);
 void cache_cpu_init(void);
+void set_cache_aps_delayed_init(bool val);
+bool get_cache_aps_delayed_init(void);
 
 #endif /* _ASM_X86_CACHEINFO_H */
 
 extern int mtrr_del_page(int reg, unsigned long base, unsigned long size);
 extern void mtrr_centaur_report_mcr(int mcr, u32 lo, u32 hi);
 extern void mtrr_ap_init(void);
-extern void set_mtrr_aps_delayed_init(void);
 extern void mtrr_aps_init(void);
 extern void mtrr_bp_restore(void);
 extern int mtrr_trim_uncached_memory(unsigned long end_pfn);
 {
 }
 #define mtrr_ap_init() do {} while (0)
-#define set_mtrr_aps_delayed_init() do {} while (0)
 #define mtrr_aps_init() do {} while (0)
 #define mtrr_bp_restore() do {} while (0)
 #define mtrr_disable() do {} while (0)
 
        cache_enable();
        local_irq_restore(flags);
 }
+
+static bool cache_aps_delayed_init;
+
+void set_cache_aps_delayed_init(bool val)
+{
+       cache_aps_delayed_init = val;
+}
+
+bool get_cache_aps_delayed_init(void)
+{
+       return cache_aps_delayed_init;
+}
 
 static DEFINE_MUTEX(mtrr_mutex);
 
 u64 size_or_mask, size_and_mask;
-static bool mtrr_aps_delayed_init;
 
 static const struct mtrr_ops *mtrr_ops[X86_VENDOR_NUM] __ro_after_init;
 
        if (data->smp_reg != ~0U) {
                mtrr_if->set(data->smp_reg, data->smp_base,
                             data->smp_size, data->smp_type);
-       } else if (mtrr_aps_delayed_init || !cpu_online(smp_processor_id())) {
+       } else if (get_cache_aps_delayed_init() ||
+                  !cpu_online(smp_processor_id())) {
                cache_cpu_init();
        }
        return 0;
 
 void mtrr_ap_init(void)
 {
-       if (!memory_caching_control || mtrr_aps_delayed_init)
+       if (!memory_caching_control || get_cache_aps_delayed_init())
                return;
 
        /*
        smp_call_function_single(first_cpu, mtrr_save_fixed_ranges, NULL, 1);
 }
 
-void set_mtrr_aps_delayed_init(void)
-{
-       if (!memory_caching_control)
-               return;
-
-       mtrr_aps_delayed_init = true;
-}
-
 /*
  * Delayed MTRR initialization for all AP's
  */
         * by doing set_mtrr_aps_delayed_init(), prior to this point. If not,
         * then we are done.
         */
-       if (!mtrr_aps_delayed_init)
+       if (!get_cache_aps_delayed_init())
                return;
 
        set_mtrr(~0U, 0, 0, 0);
-       mtrr_aps_delayed_init = false;
+       set_cache_aps_delayed_init(false);
 }
 
 void mtrr_bp_restore(void)
 
 #include <linux/overflow.h>
 
 #include <asm/acpi.h>
+#include <asm/cacheinfo.h>
 #include <asm/desc.h>
 #include <asm/nmi.h>
 #include <asm/irq.h>
 
        uv_system_init();
 
-       set_mtrr_aps_delayed_init();
+       set_cache_aps_delayed_init(true);
 
        smp_quirk_init_udelay();
 
 
 void arch_thaw_secondary_cpus_begin(void)
 {
-       set_mtrr_aps_delayed_init();
+       set_cache_aps_delayed_init(true);
 }
 
 void arch_thaw_secondary_cpus_end(void)