#else /* CONFIG_SMP */
 
+static inline int
+update_cfs_rq_load_avg(u64 now, struct cfs_rq *cfs_rq, bool update_freq)
+{
+       return 0;
+}
+
 static inline void update_load_avg(struct sched_entity *se, int not_used)
 {
        struct cfs_rq *cfs_rq = cfs_rq_of(se);
 {
        struct sched_entity *se = &p->se;
        struct cfs_rq *cfs_rq = cfs_rq_of(se);
+       u64 now = cfs_rq_clock_task(cfs_rq);
 
        if (!vruntime_normalized(p)) {
                /*
        }
 
        /* Catch up with the cfs_rq and remove our load when we leave */
+       update_cfs_rq_load_avg(now, cfs_rq, false);
        detach_entity_load_avg(cfs_rq, se);
 }
 
 {
        struct sched_entity *se = &p->se;
        struct cfs_rq *cfs_rq = cfs_rq_of(se);
+       u64 now = cfs_rq_clock_task(cfs_rq);
 
 #ifdef CONFIG_FAIR_GROUP_SCHED
        /*
 #endif
 
        /* Synchronize task with its cfs_rq */
+       update_cfs_rq_load_avg(now, cfs_rq, false);
        attach_entity_load_avg(cfs_rq, se);
 
        if (!vruntime_normalized(p))