/*
  * The slab lists for all objects.
  */
-struct kmem_list3 {
+struct kmem_cache_node {
        struct list_head slabs_partial; /* partial list first, better asm code */
        struct list_head slabs_full;
        struct list_head slabs_free;
  * Need this for bootstrapping a per node allocator.
  */
 #define NUM_INIT_LISTS (3 * MAX_NUMNODES)
-static struct kmem_list3 __initdata initkmem_list3[NUM_INIT_LISTS];
+static struct kmem_cache_node __initdata initkmem_list3[NUM_INIT_LISTS];
 #define        CACHE_CACHE 0
 #define        SIZE_AC MAX_NUMNODES
 #define        SIZE_L3 (2 * MAX_NUMNODES)
 
 static int drain_freelist(struct kmem_cache *cache,
-                       struct kmem_list3 *l3, int tofree);
+                       struct kmem_cache_node *l3, int tofree);
 static void free_block(struct kmem_cache *cachep, void **objpp, int len,
                        int node);
 static int enable_cpucache(struct kmem_cache *cachep, gfp_t gfp);
 static int slab_early_init = 1;
 
 #define INDEX_AC kmalloc_index(sizeof(struct arraycache_init))
-#define INDEX_L3 kmalloc_index(sizeof(struct kmem_list3))
+#define INDEX_L3 kmalloc_index(sizeof(struct kmem_cache_node))
 
-static void kmem_list3_init(struct kmem_list3 *parent)
+static void kmem_list3_init(struct kmem_cache_node *parent)
 {
        INIT_LIST_HEAD(&parent->slabs_full);
        INIT_LIST_HEAD(&parent->slabs_partial);
                int q)
 {
        struct array_cache **alc;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        int r;
 
        l3 = cachep->nodelists[q];
                return;
 
        for (i = 1; i < PAGE_SHIFT + MAX_ORDER; i++) {
-               struct kmem_list3 *l3;
+               struct kmem_cache_node *l3;
                struct kmem_cache *cache = kmalloc_caches[i];
 
                if (!cache)
 
 static void on_slab_lock_classes_node(struct kmem_cache *cachep, int q)
 {
-       struct kmem_list3 *l3;
-       l3 = cachep->nodelists[q];
-       if (!l3)
+
+       if (!cachep->nodelists[q])
                return;
 
        slab_set_lock_classes(cachep, &on_slab_l3_key,
 static void recheck_pfmemalloc_active(struct kmem_cache *cachep,
                                                struct array_cache *ac)
 {
-       struct kmem_list3 *l3 = cachep->nodelists[numa_mem_id()];
+       struct kmem_cache_node *l3 = cachep->nodelists[numa_mem_id()];
        struct slab *slabp;
        unsigned long flags;
 
 
        /* Ensure the caller is allowed to use objects from PFMEMALLOC slab */
        if (unlikely(is_obj_pfmemalloc(objp))) {
-               struct kmem_list3 *l3;
+               struct kmem_cache_node *l3;
 
                if (gfp_pfmemalloc_allowed(flags)) {
                        clear_obj_pfmemalloc(&objp);
 static void __drain_alien_cache(struct kmem_cache *cachep,
                                struct array_cache *ac, int node)
 {
-       struct kmem_list3 *rl3 = cachep->nodelists[node];
+       struct kmem_cache_node *rl3 = cachep->nodelists[node];
 
        if (ac->avail) {
                spin_lock(&rl3->list_lock);
 /*
  * Called from cache_reap() to regularly drain alien caches round robin.
  */
-static void reap_alien(struct kmem_cache *cachep, struct kmem_list3 *l3)
+static void reap_alien(struct kmem_cache *cachep, struct kmem_cache_node *l3)
 {
        int node = __this_cpu_read(slab_reap_node);
 
 {
        struct slab *slabp = virt_to_slab(objp);
        int nodeid = slabp->nodeid;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        struct array_cache *alien = NULL;
        int node;
 
 static int init_cache_nodelists_node(int node)
 {
        struct kmem_cache *cachep;
-       struct kmem_list3 *l3;
-       const int memsize = sizeof(struct kmem_list3);
+       struct kmem_cache_node *l3;
+       const int memsize = sizeof(struct kmem_cache_node);
 
        list_for_each_entry(cachep, &slab_caches, list) {
                /*
 static void __cpuinit cpuup_canceled(long cpu)
 {
        struct kmem_cache *cachep;
-       struct kmem_list3 *l3 = NULL;
+       struct kmem_cache_node *l3 = NULL;
        int node = cpu_to_mem(cpu);
        const struct cpumask *mask = cpumask_of_node(node);
 
 static int __cpuinit cpuup_prepare(long cpu)
 {
        struct kmem_cache *cachep;
-       struct kmem_list3 *l3 = NULL;
+       struct kmem_cache_node *l3 = NULL;
        int node = cpu_to_mem(cpu);
        int err;
 
        int ret = 0;
 
        list_for_each_entry(cachep, &slab_caches, list) {
-               struct kmem_list3 *l3;
+               struct kmem_cache_node *l3;
 
                l3 = cachep->nodelists[node];
                if (!l3)
 /*
  * swap the static kmem_list3 with kmalloced memory
  */
-static void __init init_list(struct kmem_cache *cachep, struct kmem_list3 *list,
+static void __init init_list(struct kmem_cache *cachep, struct kmem_cache_node *list,
                                int nodeid)
 {
-       struct kmem_list3 *ptr;
+       struct kmem_cache_node *ptr;
 
-       ptr = kmalloc_node(sizeof(struct kmem_list3), GFP_NOWAIT, nodeid);
+       ptr = kmalloc_node(sizeof(struct kmem_cache_node), GFP_NOWAIT, nodeid);
        BUG_ON(!ptr);
 
-       memcpy(ptr, list, sizeof(struct kmem_list3));
+       memcpy(ptr, list, sizeof(struct kmem_cache_node));
        /*
         * Do not assume that spinlocks can be initialized via memcpy:
         */
  */
 static void setup_nodelists_pointer(struct kmem_cache *cachep)
 {
-       cachep->nodelists = (struct kmem_list3 **)&cachep->array[nr_cpu_ids];
+       cachep->nodelists = (struct kmem_cache_node **)&cachep->array[nr_cpu_ids];
 }
 
 /*
         */
        create_boot_cache(kmem_cache, "kmem_cache",
                offsetof(struct kmem_cache, array[nr_cpu_ids]) +
-                                 nr_node_ids * sizeof(struct kmem_list3 *),
+                                 nr_node_ids * sizeof(struct kmem_cache_node *),
                                  SLAB_HWCACHE_ALIGN);
        list_add(&kmem_cache->list, &slab_caches);
 
 static noinline void
 slab_out_of_memory(struct kmem_cache *cachep, gfp_t gfpflags, int nodeid)
 {
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        struct slab *slabp;
        unsigned long flags;
        int node;
                        int node;
                        for_each_online_node(node) {
                                cachep->nodelists[node] =
-                                   kmalloc_node(sizeof(struct kmem_list3),
+                                   kmalloc_node(sizeof(struct kmem_cache_node),
                                                gfp, node);
                                BUG_ON(!cachep->nodelists[node]);
                                kmem_list3_init(cachep->nodelists[node]);
 #define check_spinlock_acquired_node(x, y) do { } while(0)
 #endif
 
-static void drain_array(struct kmem_cache *cachep, struct kmem_list3 *l3,
+static void drain_array(struct kmem_cache *cachep, struct kmem_cache_node *l3,
                        struct array_cache *ac,
                        int force, int node);
 
 
 static void drain_cpu_caches(struct kmem_cache *cachep)
 {
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        int node;
 
        on_each_cpu(do_drain, cachep, 1);
  * Returns the actual number of slabs released.
  */
 static int drain_freelist(struct kmem_cache *cache,
-                       struct kmem_list3 *l3, int tofree)
+                       struct kmem_cache_node *l3, int tofree)
 {
        struct list_head *p;
        int nr_freed;
 static int __cache_shrink(struct kmem_cache *cachep)
 {
        int ret = 0, i = 0;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
 
        drain_cpu_caches(cachep);
 
 int __kmem_cache_shutdown(struct kmem_cache *cachep)
 {
        int i;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        int rc = __cache_shrink(cachep);
 
        if (rc)
        struct slab *slabp;
        size_t offset;
        gfp_t local_flags;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
 
        /*
         * Be lazy and only check for valid flags here,  keeping it out of the
                                                        bool force_refill)
 {
        int batchcount;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        struct array_cache *ac;
        int node;
 
 {
        struct list_head *entry;
        struct slab *slabp;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        void *obj;
        int x;
 
                       int node)
 {
        int i;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
 
        for (i = 0; i < nr_objects; i++) {
                void *objp;
 static void cache_flusharray(struct kmem_cache *cachep, struct array_cache *ac)
 {
        int batchcount;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        int node = numa_mem_id();
 
        batchcount = ac->batchcount;
 static int alloc_kmemlist(struct kmem_cache *cachep, gfp_t gfp)
 {
        int node;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        struct array_cache *new_shared;
        struct array_cache **new_alien = NULL;
 
                        free_alien_cache(new_alien);
                        continue;
                }
-               l3 = kmalloc_node(sizeof(struct kmem_list3), gfp, node);
+               l3 = kmalloc_node(sizeof(struct kmem_cache_node), gfp, node);
                if (!l3) {
                        free_alien_cache(new_alien);
                        kfree(new_shared);
  * necessary. Note that the l3 listlock also protects the array_cache
  * if drain_array() is used on the shared array.
  */
-static void drain_array(struct kmem_cache *cachep, struct kmem_list3 *l3,
+static void drain_array(struct kmem_cache *cachep, struct kmem_cache_node *l3,
                         struct array_cache *ac, int force, int node)
 {
        int tofree;
 static void cache_reap(struct work_struct *w)
 {
        struct kmem_cache *searchp;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        int node = numa_mem_id();
        struct delayed_work *work = to_delayed_work(w);
 
        const char *name;
        char *error = NULL;
        int node;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
 
        active_objs = 0;
        num_slabs = 0;
 {
        struct kmem_cache *cachep = list_entry(p, struct kmem_cache, list);
        struct slab *slabp;
-       struct kmem_list3 *l3;
+       struct kmem_cache_node *l3;
        const char *name;
        unsigned long *n = m->private;
        int node;