]> www.infradead.org Git - users/dwmw2/linux.git/commitdiff
x86/smpboot: Enable split CPU startup
authorThomas Gleixner <tglx@linutronix.de>
Wed, 29 Mar 2023 21:01:11 +0000 (23:01 +0200)
committerDavid Woodhouse <dwmw@amazon.co.uk>
Thu, 30 Mar 2023 12:27:07 +0000 (14:27 +0200)
The x86 CPU bringup is safe to be split into wakeup and full online states.

Provide the required functions and enable the split CPU startup.

Signed-off-by: Thomas Gleixner <tglx@linutronix.de>
arch/x86/Kconfig
arch/x86/include/asm/smp.h
arch/x86/kernel/smp.c
arch/x86/kernel/smpboot.c
arch/x86/xen/smp_pv.c

index 121fcae2bc2ceb8f2ce892baee16a59b6d39906e..805ad5d87933bcece64f9f7f3831dd5dc52f0de2 100644 (file)
@@ -272,8 +272,8 @@ config X86
        select HAVE_UNSTABLE_SCHED_CLOCK
        select HAVE_USER_RETURN_NOTIFIER
        select HAVE_GENERIC_VDSO
-       select HOTPLUG_CORE_SYNC                if SMP
        select HOTPLUG_SMT                      if SMP
+       select HOTPLUG_SPLIT_STARTUP            if SMP
        select IRQ_FORCED_THREADING
        select NEED_PER_CPU_EMBED_FIRST_CHUNK
        select NEED_PER_CPU_PAGE_FIRST_CHUNK
index 7687093a4ebb1a2b7f2b977c6ee66ab2664bd21c..919f6181622bded091f30e78a0e7f3ff361a55cc 100644 (file)
@@ -39,7 +39,7 @@ struct smp_ops {
        void (*smp_send_reschedule)(int cpu);
 
        void (*cleanup_dead_cpu)(unsigned cpu);
-       int (*cpu_up)(unsigned cpu, struct task_struct *tidle);
+       int (*kick_ap_alive)(unsigned cpu, struct task_struct *tidle);
        int (*cpu_disable)(void);
        void (*cpu_die)(unsigned int cpu);
        void (*play_dead)(void);
@@ -79,11 +79,6 @@ static inline void smp_cpus_done(unsigned int max_cpus)
        smp_ops.smp_cpus_done(max_cpus);
 }
 
-static inline int __cpu_up(unsigned int cpu, struct task_struct *tidle)
-{
-       return smp_ops.cpu_up(cpu, tidle);
-}
-
 static inline int __cpu_disable(void)
 {
        return smp_ops.cpu_disable();
@@ -122,7 +117,7 @@ void native_smp_prepare_cpus(unsigned int max_cpus);
 void calculate_max_logical_packages(void);
 void native_smp_cpus_done(unsigned int max_cpus);
 int common_cpu_up(unsigned int cpunum, struct task_struct *tidle);
-int native_cpu_up(unsigned int cpunum, struct task_struct *tidle);
+int native_kick_ap(unsigned int cpu, struct task_struct *tidle);
 int native_cpu_disable(void);
 void hlt_play_dead(void);
 void native_play_dead(void);
index 4f6375b4ba9a181da8134b2bb16e6d7058a6b834..0d54115c3859f604285f0751d0cd1b4d43f28a91 100644 (file)
@@ -268,7 +268,7 @@ struct smp_ops smp_ops = {
 #endif
        .smp_send_reschedule    = native_smp_send_reschedule,
 
-       .cpu_up                 = native_cpu_up,
+       .kick_ap_alive          = native_kick_ap,
        .cpu_disable            = native_cpu_disable,
        .play_dead              = native_play_dead,
 
index 0229636b607890fe09c356f42d73e5b0aeb33fff..00e4f9364cd2c446d0cace62c943f8b49ee1667f 100644 (file)
@@ -1048,7 +1048,7 @@ static int do_boot_cpu(int apicid, int cpu, struct task_struct *idle)
        return ret;
 }
 
-static int native_kick_ap(unsigned int cpu, struct task_struct *tidle)
+int native_kick_ap(unsigned int cpu, struct task_struct *tidle)
 {
        int apicid = apic->cpu_present_to_apicid(cpu);
        int err;
@@ -1084,15 +1084,15 @@ static int native_kick_ap(unsigned int cpu, struct task_struct *tidle)
        return err;
 }
 
-int native_cpu_up(unsigned int cpu, struct task_struct *tidle)
+int arch_cpuhp_kick_ap_alive(unsigned int cpu, struct task_struct *tidle)
 {
-       return native_kick_ap(cpu, tidle);
+       return smp_ops.kick_ap_alive(cpu, tidle);
 }
 
 void arch_cpuhp_cleanup_kick_cpu(unsigned int cpu)
 {
        /* Cleanup possible dangling ends... */
-       if (smp_ops.cpu_up == native_cpu_up && x86_platform.legacy.warm_reset)
+       if (smp_ops.kick_ap_alive == native_kick_ap && x86_platform.legacy.warm_reset)
                smpboot_restore_warm_reset_vector();
 }
 
index eae78946a5df4d91a63b6f53e560b2fa6a44f1d8..4cd7285b4c30bb614a90321be6fe1fa1461326dc 100644 (file)
@@ -312,7 +312,7 @@ cpu_initialize_context(unsigned int cpu, struct task_struct *idle)
        return 0;
 }
 
-static int xen_pv_cpu_up(unsigned int cpu, struct task_struct *idle)
+static int xen_pv_kick_ap(unsigned int cpu, struct task_struct *idle)
 {
        int rc;
 
@@ -431,7 +431,7 @@ static const struct smp_ops xen_smp_ops __initconst = {
        .smp_prepare_cpus = xen_pv_smp_prepare_cpus,
        .smp_cpus_done = xen_smp_cpus_done,
 
-       .cpu_up = xen_pv_cpu_up,
+       .kick_ap_alive = xen_pv_kick_ap,
        .cpu_die = xen_pv_cpu_die,
        .cleanup_dead_cpu = xen_pv_cleanup_dead_cpu,
        .cpu_disable = xen_pv_cpu_disable,