static inline void fqdir_pre_exit(struct fqdir *fqdir)
 {
-       fqdir->high_thresh = 0; /* prevent creation of new frags */
-       fqdir->dead = true;
+       /* Prevent creation of new frags.
+        * Pairs with READ_ONCE() in inet_frag_find().
+        */
+       WRITE_ONCE(fqdir->high_thresh, 0);
+
+       /* Pairs with READ_ONCE() in inet_frag_kill(), ip_expire()
+        * and ip6frag_expire_frag_queue().
+        */
+       WRITE_ONCE(fqdir->dead, true);
 }
 void fqdir_exit(struct fqdir *fqdir);
 
 
                /* The RCU read lock provides a memory barrier
                 * guaranteeing that if fqdir->dead is false then
                 * the hash table destruction will not start until
-                * after we unlock.  Paired with inet_frags_exit_net().
+                * after we unlock.  Paired with fqdir_pre_exit().
                 */
-               if (!fqdir->dead) {
+               if (!READ_ONCE(fqdir->dead)) {
                        rhashtable_remove_fast(&fqdir->rhashtable, &fq->node,
                                               fqdir->f->rhash_params);
                        refcount_dec(&fq->refcnt);
 /* TODO : call from rcu_read_lock() and no longer use refcount_inc_not_zero() */
 struct inet_frag_queue *inet_frag_find(struct fqdir *fqdir, void *key)
 {
+       /* This pairs with WRITE_ONCE() in fqdir_pre_exit(). */
+       long high_thresh = READ_ONCE(fqdir->high_thresh);
        struct inet_frag_queue *fq = NULL, *prev;
 
-       if (!fqdir->high_thresh || frag_mem_limit(fqdir) > fqdir->high_thresh)
+       if (!high_thresh || frag_mem_limit(fqdir) > high_thresh)
                return NULL;
 
        rcu_read_lock();