void kasan_alloc_pages(struct page *page, unsigned int order);
 void kasan_free_pages(struct page *page, unsigned int order);
 
-void kasan_cache_create(struct kmem_cache *cache, size_t *size,
+void kasan_cache_create(struct kmem_cache *cache, unsigned int *size,
                        slab_flags_t *flags);
 void kasan_cache_shrink(struct kmem_cache *cache);
 void kasan_cache_shutdown(struct kmem_cache *cache);
 static inline void kasan_free_pages(struct page *page, unsigned int order) {}
 
 static inline void kasan_cache_create(struct kmem_cache *cache,
-                                     size_t *size,
+                                     unsigned int *size,
                                      slab_flags_t *flags) {}
 static inline void kasan_cache_shrink(struct kmem_cache *cache) {}
 static inline void kasan_cache_shutdown(struct kmem_cache *cache) {}
 
  * Adaptive redzone policy taken from the userspace AddressSanitizer runtime.
  * For larger allocations larger redzones are used.
  */
-static size_t optimal_redzone(size_t object_size)
+static unsigned int optimal_redzone(unsigned int object_size)
 {
-       int rz =
+       return
                object_size <= 64        - 16   ? 16 :
                object_size <= 128       - 32   ? 32 :
                object_size <= 512       - 64   ? 64 :
                object_size <= (1 << 14) - 256  ? 256 :
                object_size <= (1 << 15) - 512  ? 512 :
                object_size <= (1 << 16) - 1024 ? 1024 : 2048;
-       return rz;
 }
 
-void kasan_cache_create(struct kmem_cache *cache, size_t *size,
+void kasan_cache_create(struct kmem_cache *cache, unsigned int *size,
                        slab_flags_t *flags)
 {
+       unsigned int orig_size = *size;
        int redzone_adjust;
-       int orig_size = *size;
 
        /* Add alloc meta. */
        cache->kasan_info.alloc_meta_offset = *size;
        if (redzone_adjust > 0)
                *size += redzone_adjust;
 
-       *size = min(KMALLOC_MAX_SIZE, max(*size, cache->object_size +
+       *size = min_t(unsigned int, KMALLOC_MAX_SIZE,
+                       max(*size, cache->object_size +
                                        optimal_redzone(cache->object_size)));
 
        /*
 
 static int calculate_sizes(struct kmem_cache *s, int forced_order)
 {
        slab_flags_t flags = s->flags;
-       size_t size = s->object_size;
+       unsigned int size = s->object_size;
        int order;
 
        /*