return group_other;
 }
 
-static bool update_nohz_stats(struct rq *rq)
+static bool update_nohz_stats(struct rq *rq, bool force)
 {
 #ifdef CONFIG_NO_HZ_COMMON
        unsigned int cpu = rq->cpu;
        if (!cpumask_test_cpu(cpu, nohz.idle_cpus_mask))
                return false;
 
-       if (!time_after(jiffies, rq->last_blocked_load_update_tick))
+       if (!force && !time_after(jiffies, rq->last_blocked_load_update_tick))
                return true;
 
        update_blocked_averages(cpu);
        for_each_cpu_and(i, sched_group_span(group), env->cpus) {
                struct rq *rq = cpu_rq(i);
 
-               if ((env->flags & LBF_NOHZ_STATS) && update_nohz_stats(rq))
+               if ((env->flags & LBF_NOHZ_STATS) && update_nohz_stats(rq, false))
                        env->flags |= LBF_NOHZ_AGAIN;
 
                /* Bias balancing toward CPUs of our domain: */
 
                rq = cpu_rq(balance_cpu);
 
-               update_blocked_averages(rq->cpu);
-               has_blocked_load |= rq->has_blocked_load;
+               has_blocked_load |= update_nohz_stats(rq, true);
 
                /*
                 * If time for next balance is due,