int             interval_ptr;
 };
 
-static inline int which_bucket(u64 duration_ns, unsigned long nr_iowaiters)
+static inline int which_bucket(u64 duration_ns, unsigned int nr_iowaiters)
 {
        int bucket = 0;
 
  * to be, the higher this multiplier, and thus the higher
  * the barrier to go to an expensive C state.
  */
-static inline int performance_multiplier(unsigned long nr_iowaiters)
+static inline int performance_multiplier(unsigned int nr_iowaiters)
 {
        /* for IO wait tasks (per cpu!) we add 10x each */
        return 1 + 10 * nr_iowaiters;
        unsigned int predicted_us;
        u64 predicted_ns;
        u64 interactivity_req;
-       unsigned long nr_iowaiters;
+       unsigned int nr_iowaiters;
        ktime_t delta, delta_tick;
        int i, idx;
 
 
 extern unsigned int nr_running(void);
 extern bool single_task_running(void);
 extern unsigned int nr_iowait(void);
-extern unsigned long nr_iowait_cpu(int cpu);
+extern unsigned int nr_iowait_cpu(int cpu);
 
 static inline int sched_info_on(void)
 {
 
  * it does become runnable.
  */
 
-unsigned long nr_iowait_cpu(int cpu)
+unsigned int nr_iowait_cpu(int cpu)
 {
        return atomic_read(&cpu_rq(cpu)->nr_iowait);
 }