*   1. slab_mutex (Global Mutex)
  *   2. node->list_lock (Spinlock)
  *   3. kmem_cache->cpu_slab->lock (Local lock)
- *   4. slab_lock(slab) (Only on some arches or for debugging)
+ *   4. slab_lock(slab) (Only on some arches)
  *   5. object_map_lock (Only for debugging)
  *
  *   slab_mutex
  *   The slab_lock is a wrapper around the page lock, thus it is a bit
  *   spinlock.
  *
- *   The slab_lock is only used for debugging and on arches that do not
- *   have the ability to do a cmpxchg_double. It only protects:
+ *   The slab_lock is only used on arches that do not have the ability
+ *   to do a cmpxchg_double. It only protects:
+ *
  *     A. slab->freelist       -> List of free objects in a slab
  *     B. slab->inuse          -> Number of objects in use
  *     C. slab->objects        -> Number of objects in slab
  *   allocating a long series of objects that fill up slabs does not require
  *   the list lock.
  *
+ *   For debug caches, all allocations are forced to go through a list_lock
+ *   protected region to serialize against concurrent validation.
+ *
  *   cpu_slab->lock local lock
  *
  *   This locks protect slowpath manipulation of all kmem_cache_cpu fields
        void *p;
 
        slab_err(s, slab, text, s->name);
-       slab_lock(slab, &flags);
 
        map = get_map(s, slab);
        for_each_object(p, s, addr, slab->objects) {
                }
        }
        put_map(map);
-       slab_unlock(slab, &flags);
 #endif
 }
 
 {
        void *p;
        void *addr = slab_address(slab);
-       unsigned long flags;
-
-       slab_lock(slab, &flags);
 
        if (!check_slab(s, slab) || !on_freelist(s, slab, NULL))
-               goto unlock;
+               return;
 
        /* Now we know that a valid freelist exists */
        __fill_map(obj_map, s, slab);
                if (!check_object(s, slab, p, val))
                        break;
        }
-unlock:
-       slab_unlock(slab, &flags);
 }
 
 static int validate_slab_node(struct kmem_cache *s,