sizeof(struct kasan_free_meta) : 0);
 }
 
-struct kasan_alloc_meta *get_alloc_info(struct kmem_cache *cache,
-                                       const void *object)
+struct kasan_alloc_meta *kasan_get_alloc_meta(struct kmem_cache *cache,
+                                             const void *object)
 {
        return (void *)reset_tag(object) + cache->kasan_info.alloc_meta_offset;
 }
 
-struct kasan_free_meta *get_free_info(struct kmem_cache *cache,
-                                     const void *object)
+struct kasan_free_meta *kasan_get_free_meta(struct kmem_cache *cache,
+                                           const void *object)
 {
        BUILD_BUG_ON(sizeof(struct kasan_free_meta) > 32);
        return (void *)reset_tag(object) + cache->kasan_info.free_meta_offset;
 void * __must_check kasan_init_slab_obj(struct kmem_cache *cache,
                                                const void *object)
 {
-       struct kasan_alloc_meta *alloc_info;
+       struct kasan_alloc_meta *alloc_meta;
 
        if (!(cache->flags & SLAB_KASAN))
                return (void *)object;
 
-       alloc_info = get_alloc_info(cache, object);
-       __memset(alloc_info, 0, sizeof(*alloc_info));
+       alloc_meta = kasan_get_alloc_meta(cache, object);
+       __memset(alloc_meta, 0, sizeof(*alloc_meta));
 
        if (IS_ENABLED(CONFIG_KASAN_SW_TAGS) || IS_ENABLED(CONFIG_KASAN_HW_TAGS))
                object = set_tag(object, assign_tag(cache, object, true, false));
                     KASAN_KMALLOC_REDZONE);
 
        if (cache->flags & SLAB_KASAN)
-               kasan_set_track(&get_alloc_info(cache, object)->alloc_track, flags);
+               kasan_set_track(&kasan_get_alloc_meta(cache, object)->alloc_track, flags);
 
        return set_tag(object, tag);
 }
 
 {
        struct page *page = kasan_addr_to_page(addr);
        struct kmem_cache *cache;
-       struct kasan_alloc_meta *alloc_info;
+       struct kasan_alloc_meta *alloc_meta;
        void *object;
 
        if (!(page && PageSlab(page)))
 
        cache = page->slab_cache;
        object = nearest_obj(cache, page, addr);
-       alloc_info = get_alloc_info(cache, object);
+       alloc_meta = kasan_get_alloc_meta(cache, object);
 
-       alloc_info->aux_stack[1] = alloc_info->aux_stack[0];
-       alloc_info->aux_stack[0] = kasan_save_stack(GFP_NOWAIT);
+       alloc_meta->aux_stack[1] = alloc_meta->aux_stack[0];
+       alloc_meta->aux_stack[0] = kasan_save_stack(GFP_NOWAIT);
 }
 
 void kasan_set_free_info(struct kmem_cache *cache,
 {
        struct kasan_free_meta *free_meta;
 
-       free_meta = get_free_info(cache, object);
+       free_meta = kasan_get_free_meta(cache, object);
        kasan_set_track(&free_meta->free_track, GFP_NOWAIT);
 
        /*
 {
        if (*(u8 *)kasan_mem_to_shadow(object) != KASAN_KMALLOC_FREETRACK)
                return NULL;
-       return &get_free_info(cache, object)->free_track;
+       return &kasan_get_free_meta(cache, object)->free_track;
 }
 
 {
        struct kasan_alloc_meta *alloc_meta;
 
-       alloc_meta = get_alloc_info(cache, object);
+       alloc_meta = kasan_get_alloc_meta(cache, object);
        kasan_set_track(&alloc_meta->free_track[0], GFP_NOWAIT);
 }
 
 {
        struct kasan_alloc_meta *alloc_meta;
 
-       alloc_meta = get_alloc_info(cache, object);
+       alloc_meta = kasan_get_alloc_meta(cache, object);
        return &alloc_meta->free_track[0];
 }
 
 #endif
 };
 
-struct kasan_alloc_meta *get_alloc_info(struct kmem_cache *cache,
-                                       const void *object);
-struct kasan_free_meta *get_free_info(struct kmem_cache *cache,
-                                       const void *object);
+struct kasan_alloc_meta *kasan_get_alloc_meta(struct kmem_cache *cache,
+                                               const void *object);
+struct kasan_free_meta *kasan_get_free_meta(struct kmem_cache *cache,
+                                               const void *object);
 
 void poison_range(const void *address, size_t size, u8 value);
 void unpoison_range(const void *address, size_t size);
 
        unsigned long flags;
        struct qlist_head *q;
        struct qlist_head temp = QLIST_INIT;
-       struct kasan_free_meta *info = get_free_info(cache, object);
+       struct kasan_free_meta *meta = kasan_get_free_meta(cache, object);
 
        /*
         * Note: irq must be disabled until after we move the batch to the
                local_irq_restore(flags);
                return;
        }
-       qlist_put(q, &info->quarantine_link, cache->size);
+       qlist_put(q, &meta->quarantine_link, cache->size);
        if (unlikely(q->bytes > QUARANTINE_PERCPU_SIZE)) {
                qlist_move_all(q, &temp);
 
 
 static void describe_object(struct kmem_cache *cache, void *object,
                                const void *addr, u8 tag)
 {
-       struct kasan_alloc_meta *alloc_info = get_alloc_info(cache, object);
+       struct kasan_alloc_meta *alloc_meta = kasan_get_alloc_meta(cache, object);
 
        if (cache->flags & SLAB_KASAN) {
                struct kasan_track *free_track;
 
-               print_track(&alloc_info->alloc_track, "Allocated");
+               print_track(&alloc_meta->alloc_track, "Allocated");
                pr_err("\n");
                free_track = kasan_get_free_track(cache, object, tag);
                if (free_track) {
                }
 
 #ifdef CONFIG_KASAN_GENERIC
-               if (alloc_info->aux_stack[0]) {
+               if (alloc_meta->aux_stack[0]) {
                        pr_err("Last potentially related work creation:\n");
-                       print_stack(alloc_info->aux_stack[0]);
+                       print_stack(alloc_meta->aux_stack[0]);
                        pr_err("\n");
                }
-               if (alloc_info->aux_stack[1]) {
+               if (alloc_meta->aux_stack[1]) {
                        pr_err("Second to last potentially related work creation:\n");
-                       print_stack(alloc_info->aux_stack[1]);
+                       print_stack(alloc_meta->aux_stack[1]);
                        pr_err("\n");
                }
 #endif
 
        if (page && PageSlab(page)) {
                cache = page->slab_cache;
                object = nearest_obj(cache, page, (void *)addr);
-               alloc_meta = get_alloc_info(cache, object);
+               alloc_meta = kasan_get_alloc_meta(cache, object);
 
                for (i = 0; i < KASAN_NR_FREE_STACKS; i++)
                        if (alloc_meta->free_pointer_tag[i] == tag)
 
        struct kasan_alloc_meta *alloc_meta;
        u8 idx = 0;
 
-       alloc_meta = get_alloc_info(cache, object);
+       alloc_meta = kasan_get_alloc_meta(cache, object);
 
 #ifdef CONFIG_KASAN_SW_TAGS_IDENTIFY
        idx = alloc_meta->free_track_idx;
        struct kasan_alloc_meta *alloc_meta;
        int i = 0;
 
-       alloc_meta = get_alloc_info(cache, object);
+       alloc_meta = kasan_get_alloc_meta(cache, object);
 
 #ifdef CONFIG_KASAN_SW_TAGS_IDENTIFY
        for (i = 0; i < KASAN_NR_FREE_STACKS; i++) {