int __kmem_cache_alloc_bulk(struct kmem_cache *, gfp_t, size_t, void **);
 
 #if defined(CONFIG_MEMCG) && !defined(CONFIG_SLOB)
+
+/* List of all root caches. */
+extern struct list_head                slab_root_caches;
+#define root_caches_node       memcg_params.__root_caches_node
+
 /*
  * Iterate over all memcg caches of the given root cache. The caller must hold
  * slab_mutex.
 }
 
 extern void slab_init_memcg_params(struct kmem_cache *);
+extern void memcg_link_cache(struct kmem_cache *s);
 
 #else /* CONFIG_MEMCG && !CONFIG_SLOB */
 
+/* If !memcg, all caches are root. */
+#define slab_root_caches       slab_caches
+#define root_caches_node       list
+
 #define for_each_memcg_cache(iter, root) \
        for ((void)(iter), (void)(root); 0; )
 
 static inline void slab_init_memcg_params(struct kmem_cache *s)
 {
 }
+
+static inline void memcg_link_cache(struct kmem_cache *s)
+{
+}
+
 #endif /* CONFIG_MEMCG && !CONFIG_SLOB */
 
 static inline struct kmem_cache *cache_from_obj(struct kmem_cache *s, void *x)
 
 }
 
 #if defined(CONFIG_MEMCG) && !defined(CONFIG_SLOB)
+
+LIST_HEAD(slab_root_caches);
+
 void slab_init_memcg_params(struct kmem_cache *s)
 {
        s->memcg_params.root_cache = NULL;
 {
        struct memcg_cache_array *old, *new;
 
-       if (!is_root_cache(s))
-               return 0;
-
        new = kzalloc(sizeof(struct memcg_cache_array) +
                      new_array_size * sizeof(void *), GFP_KERNEL);
        if (!new)
        int ret = 0;
 
        mutex_lock(&slab_mutex);
-       list_for_each_entry(s, &slab_caches, list) {
+       list_for_each_entry(s, &slab_root_caches, root_caches_node) {
                ret = update_memcg_params(s, num_memcgs);
                /*
                 * Instead of freeing the memory, we'll just leave the caches
        return ret;
 }
 
-static void unlink_memcg_cache(struct kmem_cache *s)
+void memcg_link_cache(struct kmem_cache *s)
+{
+       if (is_root_cache(s)) {
+               list_add(&s->root_caches_node, &slab_root_caches);
+       } else {
+               list_add(&s->memcg_params.children_node,
+                        &s->memcg_params.root_cache->memcg_params.children);
+               list_add(&s->memcg_params.kmem_caches_node,
+                        &s->memcg_params.memcg->kmem_caches);
+       }
+}
+
+static void memcg_unlink_cache(struct kmem_cache *s)
 {
-       list_del(&s->memcg_params.children_node);
-       list_del(&s->memcg_params.kmem_caches_node);
+       if (is_root_cache(s)) {
+               list_del(&s->root_caches_node);
+       } else {
+               list_del(&s->memcg_params.children_node);
+               list_del(&s->memcg_params.kmem_caches_node);
+       }
 }
 #else
 static inline int init_memcg_params(struct kmem_cache *s,
 {
 }
 
-static inline void unlink_memcg_cache(struct kmem_cache *s)
+static inline void memcg_unlink_cache(struct kmem_cache *s)
 {
 }
 #endif /* CONFIG_MEMCG && !CONFIG_SLOB */
        if (flags & SLAB_NEVER_MERGE)
                return NULL;
 
-       list_for_each_entry_reverse(s, &slab_caches, list) {
+       list_for_each_entry_reverse(s, &slab_root_caches, root_caches_node) {
                if (slab_unmergeable(s))
                        continue;
 
 
        s->refcount = 1;
        list_add(&s->list, &slab_caches);
+       memcg_link_cache(s);
 out:
        if (err)
                return ERR_PTR(err);
        if (__kmem_cache_shutdown(s) != 0)
                return -EBUSY;
 
+       memcg_unlink_cache(s);
        list_del(&s->list);
-       if (!is_root_cache(s))
-               unlink_memcg_cache(s);
 
        if (s->flags & SLAB_DESTROY_BY_RCU) {
                list_add_tail(&s->list, &slab_caches_to_rcu_destroy);
                goto out_unlock;
        }
 
-       list_add(&s->memcg_params.children_node,
-                &root_cache->memcg_params.children);
-       list_add(&s->memcg_params.kmem_caches_node, &memcg->kmem_caches);
-
        /*
         * Since readers won't lock (see cache_from_memcg_idx()), we need a
         * barrier here to ensure nobody will see the kmem_cache partially
        get_online_mems();
 
        mutex_lock(&slab_mutex);
-       list_for_each_entry(s, &slab_caches, list) {
-               if (!is_root_cache(s))
-                       continue;
-
+       list_for_each_entry(s, &slab_root_caches, root_caches_node) {
                arr = rcu_dereference_protected(s->memcg_params.memcg_caches,
                                                lockdep_is_held(&slab_mutex));
                c = arr->entries[idx];
 
        create_boot_cache(s, name, size, flags);
        list_add(&s->list, &slab_caches);
+       memcg_link_cache(s);
        s->refcount = 1;
        return s;
 }
 void *slab_start(struct seq_file *m, loff_t *pos)
 {
        mutex_lock(&slab_mutex);
-       return seq_list_start(&slab_caches, *pos);
+       return seq_list_start(&slab_root_caches, *pos);
 }
 
 void *slab_next(struct seq_file *m, void *p, loff_t *pos)
 {
-       return seq_list_next(p, &slab_caches, pos);
+       return seq_list_next(p, &slab_root_caches, pos);
 }
 
 void slab_stop(struct seq_file *m, void *p)
 
 static int slab_show(struct seq_file *m, void *p)
 {
-       struct kmem_cache *s = list_entry(p, struct kmem_cache, list);
+       struct kmem_cache *s = list_entry(p, struct kmem_cache, root_caches_node);
 
-       if (p == slab_caches.next)
+       if (p == slab_root_caches.next)
                print_slabinfo_header(m);
-       if (is_root_cache(s))
-               cache_show(s, m);
+       cache_show(s, m);
        return 0;
 }