extern struct bus_type cpu_subsys;
 
 #ifdef CONFIG_HOTPLUG_CPU
-/* Stop CPUs going up and down. */
-
-extern void cpu_hotplug_begin(void);
-extern void cpu_hotplug_done(void);
-extern void get_online_cpus(void);
-extern void put_online_cpus(void);
+extern void cpus_write_lock(void);
+extern void cpus_write_unlock(void);
+extern void cpus_read_lock(void);
+extern void cpus_read_unlock(void);
 extern void cpu_hotplug_disable(void);
 extern void cpu_hotplug_enable(void);
 void clear_tasks_mm_cpumask(int cpu);
 int cpu_down(unsigned int cpu);
 
-#else          /* CONFIG_HOTPLUG_CPU */
-
-static inline void cpu_hotplug_begin(void) {}
-static inline void cpu_hotplug_done(void) {}
-#define get_online_cpus()      do { } while (0)
-#define put_online_cpus()      do { } while (0)
-#define cpu_hotplug_disable()  do { } while (0)
-#define cpu_hotplug_enable()   do { } while (0)
-#endif         /* CONFIG_HOTPLUG_CPU */
+#else /* CONFIG_HOTPLUG_CPU */
+
+static inline void cpus_write_lock(void) { }
+static inline void cpus_write_unlock(void) { }
+static inline void cpus_read_lock(void) { }
+static inline void cpus_read_unlock(void) { }
+static inline void cpu_hotplug_disable(void) { }
+static inline void cpu_hotplug_enable(void) { }
+#endif /* !CONFIG_HOTPLUG_CPU */
+
+/* Wrappers which go away once all code is converted */
+static inline void cpu_hotplug_begin(void) { cpus_write_lock(); }
+static inline void cpu_hotplug_done(void) { cpus_write_unlock(); }
+static inline void get_online_cpus(void) { cpus_read_lock(); }
+static inline void put_online_cpus(void) { cpus_read_unlock(); }
 
 #ifdef CONFIG_PM_SLEEP_SMP
 extern int freeze_secondary_cpus(int primary);
 
 #define cpuhp_lock_release()      lock_map_release(&cpu_hotplug.dep_map)
 
 
-void get_online_cpus(void)
+void cpus_read_lock(void)
 {
        might_sleep();
        if (cpu_hotplug.active_writer == current)
        atomic_inc(&cpu_hotplug.refcount);
        mutex_unlock(&cpu_hotplug.lock);
 }
-EXPORT_SYMBOL_GPL(get_online_cpus);
+EXPORT_SYMBOL_GPL(cpus_read_lock);
 
-void put_online_cpus(void)
+void cpus_read_unlock(void)
 {
        int refcount;
 
        cpuhp_lock_release();
 
 }
-EXPORT_SYMBOL_GPL(put_online_cpus);
+EXPORT_SYMBOL_GPL(cpus_read_unlock);
 
 /*
  * This ensures that the hotplug operation can begin only when the
  * get_online_cpus() not an api which is called all that often.
  *
  */
-void cpu_hotplug_begin(void)
+void cpus_write_lock(void)
 {
        DEFINE_WAIT(wait);
 
        finish_wait(&cpu_hotplug.wq, &wait);
 }
 
-void cpu_hotplug_done(void)
+void cpus_write_unlock(void)
 {
        cpu_hotplug.active_writer = NULL;
        mutex_unlock(&cpu_hotplug.lock);
        if (!cpu_present(cpu))
                return -EINVAL;
 
-       cpu_hotplug_begin();
+       cpus_write_lock();
 
        cpuhp_tasks_frozen = tasks_frozen;
 
        }
 
 out:
-       cpu_hotplug_done();
+       cpus_write_unlock();
        return ret;
 }
 
        struct task_struct *idle;
        int ret = 0;
 
-       cpu_hotplug_begin();
+       cpus_write_lock();
 
        if (!cpu_present(cpu)) {
                ret = -EINVAL;
        target = min((int)target, CPUHP_BRINGUP_CPU);
        ret = cpuhp_up_callbacks(cpu, st, target);
 out:
-       cpu_hotplug_done();
+       cpus_write_unlock();
        return ret;
 }
 
        if (sp->multi_instance == false)
                return -EINVAL;
 
-       get_online_cpus();
+       cpus_read_lock();
        mutex_lock(&cpuhp_state_mutex);
 
        if (!invoke || !sp->startup.multi)
        hlist_add_head(node, &sp->list);
 unlock:
        mutex_unlock(&cpuhp_state_mutex);
-       put_online_cpus();
+       cpus_read_unlock();
        return ret;
 }
 EXPORT_SYMBOL_GPL(__cpuhp_state_add_instance);
        if (cpuhp_cb_check(state) || !name)
                return -EINVAL;
 
-       get_online_cpus();
+       cpus_read_lock();
        mutex_lock(&cpuhp_state_mutex);
 
        ret = cpuhp_store_callbacks(state, name, startup, teardown,
        }
 out:
        mutex_unlock(&cpuhp_state_mutex);
-       put_online_cpus();
+       cpus_read_unlock();
        /*
         * If the requested state is CPUHP_AP_ONLINE_DYN, return the
         * dynamically allocated state in case of success.
        if (!sp->multi_instance)
                return -EINVAL;
 
-       get_online_cpus();
+       cpus_read_lock();
        mutex_lock(&cpuhp_state_mutex);
 
        if (!invoke || !cpuhp_get_teardown_cb(state))
 remove:
        hlist_del(node);
        mutex_unlock(&cpuhp_state_mutex);
-       put_online_cpus();
+       cpus_read_unlock();
 
        return 0;
 }
 
        BUG_ON(cpuhp_cb_check(state));
 
-       get_online_cpus();
+       cpus_read_lock();
 
        mutex_lock(&cpuhp_state_mutex);
        if (sp->multi_instance) {
 remove:
        cpuhp_store_callbacks(state, NULL, NULL, NULL, false);
        mutex_unlock(&cpuhp_state_mutex);
-       put_online_cpus();
+       cpus_read_unlock();
 }
 EXPORT_SYMBOL(__cpuhp_remove_state);