if ``kasan_multi_shot`` is enabled.
 
 Software and Hardware Tag-Based KASAN modes (see the section about various
-modes below) support disabling stack trace collection:
+modes below) support altering stack trace collection behavior:
 
 - ``kasan.stacktrace=off`` or ``=on`` disables or enables alloc and free stack
   traces collection (default: ``on``).
+- ``kasan.stack_ring_size=<number of entries>`` specifies the number of entries
+  in the stack ring (default: ``32768``).
 
 Hardware Tag-Based KASAN mode is intended for use in production as a security
 mitigation. Therefore, it supports additional boot parameters that allow
 
         * entries relevant to the buggy object can be overwritten.
         */
 
-       for (u64 i = pos - 1; i != pos - 1 - KASAN_STACK_RING_SIZE; i--) {
+       for (u64 i = pos - 1; i != pos - 1 - stack_ring.size; i--) {
                if (alloc_found && free_found)
                        break;
 
-               entry = &stack_ring.entries[i % KASAN_STACK_RING_SIZE];
+               entry = &stack_ring.entries[i % stack_ring.size];
 
                /* Paired with smp_store_release() in save_stack_info(). */
                ptr = (void *)smp_load_acquire(&entry->ptr);
 
 #include <linux/init.h>
 #include <linux/kasan.h>
 #include <linux/kernel.h>
+#include <linux/memblock.h>
 #include <linux/memory.h>
 #include <linux/mm.h>
 #include <linux/static_key.h>
 #include "kasan.h"
 #include "../slab.h"
 
+#define KASAN_STACK_RING_SIZE_DEFAULT (32 << 10)
+
 enum kasan_arg_stacktrace {
        KASAN_ARG_STACKTRACE_DEFAULT,
        KASAN_ARG_STACKTRACE_OFF,
 }
 early_param("kasan.stacktrace", early_kasan_flag_stacktrace);
 
+/* kasan.stack_ring_size=<number of entries> */
+static int __init early_kasan_flag_stack_ring_size(char *arg)
+{
+       if (!arg)
+               return -EINVAL;
+
+       return kstrtoul(arg, 0, &stack_ring.size);
+}
+early_param("kasan.stack_ring_size", early_kasan_flag_stack_ring_size);
+
 void __init kasan_init_tags(void)
 {
        switch (kasan_arg_stacktrace) {
                static_branch_enable(&kasan_flag_stacktrace);
                break;
        }
+
+       if (kasan_stack_collection_enabled()) {
+               if (!stack_ring.size)
+                       stack_ring.size = KASAN_STACK_RING_SIZE_DEFAULT;
+               stack_ring.entries = memblock_alloc(
+                       sizeof(stack_ring.entries[0]) * stack_ring.size,
+                       SMP_CACHE_BYTES);
+               if (WARN_ON(!stack_ring.entries))
+                       static_branch_disable(&kasan_flag_stacktrace);
+       }
 }
 
 static void save_stack_info(struct kmem_cache *cache, void *object,
 
 next:
        pos = atomic64_fetch_add(1, &stack_ring.pos);
-       entry = &stack_ring.entries[pos % KASAN_STACK_RING_SIZE];
+       entry = &stack_ring.entries[pos % stack_ring.size];
 
        /* Detect stack ring entry slots that are being written to. */
        old_ptr = READ_ONCE(entry->ptr);