extern int memcg_expand_shrinker_maps(int new_id);
 
+extern void memcg_set_shrinker_bit(struct mem_cgroup *memcg,
+                                  int nid, int shrinker_id);
 #else
 #define for_each_memcg_cache_index(_idx)       \
        for (; NULL; )
 {
 }
 
+static inline void memcg_set_shrinker_bit(struct mem_cgroup *memcg,
+                                         int nid, int shrinker_id) { }
 #endif /* CONFIG_MEMCG_KMEM */
 
 #endif /* _LINUX_MEMCONTROL_H */
 
        mutex_unlock(&list_lrus_mutex);
 }
 
+static int lru_shrinker_id(struct list_lru *lru)
+{
+       return lru->shrinker_id;
+}
+
 static inline bool list_lru_memcg_aware(struct list_lru *lru)
 {
        /*
 {
 }
 
+static int lru_shrinker_id(struct list_lru *lru)
+{
+       return -1;
+}
+
 static inline bool list_lru_memcg_aware(struct list_lru *lru)
 {
        return false;
 {
        int nid = page_to_nid(virt_to_page(item));
        struct list_lru_node *nlru = &lru->node[nid];
+       struct mem_cgroup *memcg;
        struct list_lru_one *l;
 
        spin_lock(&nlru->lock);
        if (list_empty(item)) {
-               l = list_lru_from_kmem(nlru, item, NULL);
+               l = list_lru_from_kmem(nlru, item, &memcg);
                list_add_tail(item, &l->list);
-               l->nr_items++;
+               /* Set shrinker bit if the first element was added */
+               if (!l->nr_items++)
+                       memcg_set_shrinker_bit(memcg, nid,
+                                              lru_shrinker_id(lru));
                nlru->nr_items++;
                spin_unlock(&nlru->lock);
                return true;
        struct list_lru_node *nlru = &lru->node[nid];
        int dst_idx = dst_memcg->kmemcg_id;
        struct list_lru_one *src, *dst;
+       bool set;
 
        /*
         * Since list_lru_{add,del} may be called under an IRQ-safe lock,
        dst = list_lru_from_memcg_idx(nlru, dst_idx);
 
        list_splice_init(&src->list, &dst->list);
+       set = (!dst->nr_items && src->nr_items);
        dst->nr_items += src->nr_items;
+       if (set)
+               memcg_set_shrinker_bit(dst_memcg, nid, lru_shrinker_id(lru));
        src->nr_items = 0;
 
        spin_unlock_irq(&nlru->lock);
 
        mutex_unlock(&memcg_shrinker_map_mutex);
        return ret;
 }
+
+void memcg_set_shrinker_bit(struct mem_cgroup *memcg, int nid, int shrinker_id)
+{
+       if (shrinker_id >= 0 && memcg && !mem_cgroup_is_root(memcg)) {
+               struct memcg_shrinker_map *map;
+
+               rcu_read_lock();
+               map = rcu_dereference(memcg->nodeinfo[nid]->shrinker_map);
+               set_bit(shrinker_id, map->map);
+               rcu_read_unlock();
+       }
+}
+
 #else /* CONFIG_MEMCG_KMEM */
 static int memcg_alloc_shrinker_maps(struct mem_cgroup *memcg)
 {