return nr_cpu_ids;
 }
 
-static inline void set_cpu_sd_state_busy(void)
-{
-       struct sched_domain *sd;
-       int cpu = smp_processor_id();
-
-       rcu_read_lock();
-       sd = rcu_dereference(per_cpu(sd_llc, cpu));
-
-       if (!sd || !sd->nohz_idle)
-               goto unlock;
-       sd->nohz_idle = 0;
-
-       atomic_inc(&sd->shared->nr_busy_cpus);
-unlock:
-       rcu_read_unlock();
-}
-
 /*
  * Kick a CPU to do the nohz balancing, if it is time for it. We pick the
  * nohz_load_balancer CPU (if there is one) otherwise fallback to any idle
         * We may be recently in ticked or tickless idle mode. At the first
         * busy tick after returning from idle, we will update the busy stats.
         */
-       set_cpu_sd_state_busy();
-       nohz_balance_exit_idle(cpu);
+       nohz_balance_exit_idle(rq);
 
        /*
         * None are in tickless mode and hence no need for NOHZ idle load
                kick_ilb(flags);
 }
 
-void nohz_balance_exit_idle(unsigned int cpu)
+static void set_cpu_sd_state_busy(int cpu)
 {
-       unsigned int flags = atomic_read(nohz_flags(cpu));
+       struct sched_domain *sd;
 
-       if (unlikely(flags & NOHZ_TICK_STOPPED)) {
-               /*
-                * Completely isolated CPUs don't ever set, so we must test.
-                */
-               if (likely(cpumask_test_cpu(cpu, nohz.idle_cpus_mask))) {
-                       cpumask_clear_cpu(cpu, nohz.idle_cpus_mask);
-                       atomic_dec(&nohz.nr_cpus);
-               }
+       rcu_read_lock();
+       sd = rcu_dereference(per_cpu(sd_llc, cpu));
 
-               atomic_andnot(NOHZ_TICK_STOPPED, nohz_flags(cpu));
-       }
+       if (!sd || !sd->nohz_idle)
+               goto unlock;
+       sd->nohz_idle = 0;
+
+       atomic_inc(&sd->shared->nr_busy_cpus);
+unlock:
+       rcu_read_unlock();
 }
 
-void set_cpu_sd_state_idle(void)
+void nohz_balance_exit_idle(struct rq *rq)
+{
+       SCHED_WARN_ON(rq != this_rq());
+
+       if (likely(!rq->nohz_tick_stopped))
+               return;
+
+       rq->nohz_tick_stopped = 0;
+       cpumask_clear_cpu(rq->cpu, nohz.idle_cpus_mask);
+       atomic_dec(&nohz.nr_cpus);
+
+       set_cpu_sd_state_busy(rq->cpu);
+}
+
+static void set_cpu_sd_state_idle(int cpu)
 {
        struct sched_domain *sd;
-       int cpu = smp_processor_id();
 
        rcu_read_lock();
        sd = rcu_dereference(per_cpu(sd_llc, cpu));
  */
 void nohz_balance_enter_idle(int cpu)
 {
+       struct rq *rq = cpu_rq(cpu);
+
+       SCHED_WARN_ON(cpu != smp_processor_id());
+
        /* If this CPU is going down, then nothing needs to be done: */
        if (!cpu_active(cpu))
                return;
        if (!housekeeping_cpu(cpu, HK_FLAG_SCHED))
                return;
 
-       if (atomic_read(nohz_flags(cpu)) & NOHZ_TICK_STOPPED)
+       if (rq->nohz_tick_stopped)
                return;
 
        /* If we're a completely isolated CPU, we don't play: */
-       if (on_null_domain(cpu_rq(cpu)))
+       if (on_null_domain(rq))
                return;
 
+       rq->nohz_tick_stopped = 1;
+
        cpumask_set_cpu(cpu, nohz.idle_cpus_mask);
        atomic_inc(&nohz.nr_cpus);
-       atomic_or(NOHZ_TICK_STOPPED, nohz_flags(cpu));
+
+       set_cpu_sd_state_idle(cpu);
 }
 #else
 static inline void nohz_balancer_kick(struct rq *rq) { }
 
        unsigned long           last_load_update_tick;
        unsigned long           last_blocked_load_update_tick;
 #endif /* CONFIG_SMP */
+       unsigned int            nohz_tick_stopped;
        atomic_t nohz_flags;
 #endif /* CONFIG_NO_HZ_COMMON */
 
 extern void cfs_bandwidth_usage_dec(void);
 
 #ifdef CONFIG_NO_HZ_COMMON
-#define NOHZ_TICK_STOPPED_BIT  0
-#define NOHZ_BALANCE_KICK_BIT  1
-#define NOHZ_STATS_KICK_BIT    2
+#define NOHZ_BALANCE_KICK_BIT  0
+#define NOHZ_STATS_KICK_BIT    1
 
-#define NOHZ_TICK_STOPPED      BIT(NOHZ_TICK_STOPPED_BIT)
 #define NOHZ_BALANCE_KICK      BIT(NOHZ_BALANCE_KICK_BIT)
 #define NOHZ_STATS_KICK                BIT(NOHZ_STATS_KICK_BIT)
 
 
 #define nohz_flags(cpu)        (&cpu_rq(cpu)->nohz_flags)
 
-extern void nohz_balance_exit_idle(unsigned int cpu);
+extern void nohz_balance_exit_idle(struct rq *rq);
 #else
-static inline void nohz_balance_exit_idle(unsigned int cpu) { }
+static inline void nohz_balance_exit_idle(struct rq *rq) { }
 #endif