static int trace_probe_nr_files(struct trace_probe *tp)
 {
-       struct ftrace_event_file **file = tp->files;
+       struct ftrace_event_file **file;
        int ret = 0;
 
+       /*
+        * Since all tp->files updater is protected by probe_enable_lock,
+        * we don't need to lock an rcu_read_lock.
+        */
+       file = rcu_dereference_raw(tp->files);
        if (file)
                while (*(file++))
                        ret++;
        mutex_lock(&probe_enable_lock);
 
        if (file) {
-               struct ftrace_event_file **new, **old = tp->files;
+               struct ftrace_event_file **new, **old;
                int n = trace_probe_nr_files(tp);
 
+               old = rcu_dereference_raw(tp->files);
                /* 1 is for new one and 1 is for stopper */
                new = kzalloc((n + 2) * sizeof(struct ftrace_event_file *),
                              GFP_KERNEL);
 static int
 trace_probe_file_index(struct trace_probe *tp, struct ftrace_event_file *file)
 {
+       struct ftrace_event_file **files;
        int i;
 
-       if (tp->files) {
-               for (i = 0; tp->files[i]; i++)
-                       if (tp->files[i] == file)
+       /*
+        * Since all tp->files updater is protected by probe_enable_lock,
+        * we don't need to lock an rcu_read_lock.
+        */
+       files = rcu_dereference_raw(tp->files);
+       if (files) {
+               for (i = 0; files[i]; i++)
+                       if (files[i] == file)
                                return i;
        }
 
        mutex_lock(&probe_enable_lock);
 
        if (file) {
-               struct ftrace_event_file **new, **old = tp->files;
+               struct ftrace_event_file **new, **old;
                int n = trace_probe_nr_files(tp);
                int i, j;
 
+               old = rcu_dereference_raw(tp->files);
                if (n == 0 || trace_probe_file_index(tp, file) < 0) {
                        ret = -EINVAL;
                        goto out_unlock;
 static __kprobes void
 kprobe_trace_func(struct trace_probe *tp, struct pt_regs *regs)
 {
-       struct ftrace_event_file **file = tp->files;
+       /*
+        * Note: preempt is already disabled around the kprobe handler.
+        * However, we still need an smp_read_barrier_depends() corresponding
+        * to smp_wmb() in rcu_assign_pointer() to access the pointer.
+        */
+       struct ftrace_event_file **file = rcu_dereference_raw(tp->files);
+
+       if (unlikely(!file))
+               return;
 
-       /* Note: preempt is already disabled around the kprobe handler */
        while (*file) {
                __kprobe_trace_func(tp, regs, *file);
                file++;
 kretprobe_trace_func(struct trace_probe *tp, struct kretprobe_instance *ri,
                     struct pt_regs *regs)
 {
-       struct ftrace_event_file **file = tp->files;
+       /*
+        * Note: preempt is already disabled around the kprobe handler.
+        * However, we still need an smp_read_barrier_depends() corresponding
+        * to smp_wmb() in rcu_assign_pointer() to access the pointer.
+        */
+       struct ftrace_event_file **file = rcu_dereference_raw(tp->files);
+
+       if (unlikely(!file))
+               return;
 
-       /* Note: preempt is already disabled around the kprobe handler */
        while (*file) {
                __kretprobe_trace_func(tp, ri, regs, *file);
                file++;