static void sugov_get_util(unsigned long *util, unsigned long *max, int cpu)
 {
        struct rq *rq = cpu_rq(cpu);
-       unsigned long cfs_max;
+       unsigned long util_cfs = cpu_util_cfs(rq);
+       unsigned long util_dl  = cpu_util_dl(rq);
 
-       cfs_max = arch_scale_cpu_capacity(NULL, cpu);
+       *max = arch_scale_cpu_capacity(NULL, cpu);
 
-       *util = min(rq->cfs.avg.util_avg, cfs_max);
-       *max = cfs_max;
+       /*
+        * Ideally we would like to set util_dl as min/guaranteed freq and
+        * util_cfs + util_dl as requested freq. However, cpufreq is not yet
+        * ready for such an interface. So, we only do the latter for now.
+        */
+       *util = min(util_cfs + util_dl, *max);
 }
 
 static void sugov_set_iowait_boost(struct sugov_cpu *sg_cpu, u64 time)
 
        busy = sugov_cpu_is_busy(sg_cpu);
 
-       if (flags & SCHED_CPUFREQ_RT_DL) {
+       if (flags & SCHED_CPUFREQ_RT) {
                next_f = policy->cpuinfo.max_freq;
        } else {
                sugov_get_util(&util, &max, sg_cpu->cpu);
                        j_sg_cpu->iowait_boost_pending = false;
                        continue;
                }
-               if (j_sg_cpu->flags & SCHED_CPUFREQ_RT_DL)
+               if (j_sg_cpu->flags & SCHED_CPUFREQ_RT)
                        return policy->cpuinfo.max_freq;
 
                j_util = j_sg_cpu->util;
        sg_cpu->last_update = time;
 
        if (sugov_should_update_freq(sg_policy, time)) {
-               if (flags & SCHED_CPUFREQ_RT_DL)
+               if (flags & SCHED_CPUFREQ_RT)
                        next_f = sg_policy->policy->cpuinfo.max_freq;
                else
                        next_f = sugov_next_freq_shared(sg_cpu, time);
        sg_policy = container_of(irq_work, struct sugov_policy, irq_work);
 
        /*
-        * For RT and deadline tasks, the schedutil governor shoots the
-        * frequency to maximum. Special care must be taken to ensure that this
-        * kthread doesn't result in the same behavior.
+        * For RT tasks, the schedutil governor shoots the frequency to maximum.
+        * Special care must be taken to ensure that this kthread doesn't result
+        * in the same behavior.
         *
         * This is (mostly) guaranteed by the work_in_progress flag. The flag is
         * updated only at the end of the sugov_work() function and before that