#ifndef CONFIG_SMP
 
 void synchronize_sched_expedited(void)
+{
+}
+EXPORT_SYMBOL_GPL(synchronize_sched_expedited);
+
+#else /* #ifndef CONFIG_SMP */
+
+static atomic_t synchronize_sched_expedited_count = ATOMIC_INIT(0);
+
+static int synchronize_sched_expedited_cpu_stop(void *data)
 {
        /*
         * There must be a full memory barrier on each affected CPU
         * necessary.  Do smp_mb() anyway for documentation and
         * robustness against future implementation changes.
         */
-       smp_mb();
-}
-EXPORT_SYMBOL_GPL(synchronize_sched_expedited);
-
-#else /* #ifndef CONFIG_SMP */
-
-static atomic_t synchronize_sched_expedited_count = ATOMIC_INIT(0);
-
-static int synchronize_sched_expedited_cpu_stop(void *data)
-{
+       smp_mb(); /* See above comment block. */
        return 0;
 }
 
                get_online_cpus();
        }
        atomic_inc(&synchronize_sched_expedited_count);
+       smp_mb__after_atomic_inc(); /* ensure post-GP actions seen after GP. */
        put_online_cpus();
 }
 EXPORT_SYMBOL_GPL(synchronize_sched_expedited);