if (!krcp->nr_bkv_objs)
                return NULL;
 
-       krcp->nr_bkv_objs--;
+       WRITE_ONCE(krcp->nr_bkv_objs, krcp->nr_bkv_objs - 1);
        return (struct kvfree_rcu_bulk_data *)
                llist_del_first(&krcp->bkvcache);
 }
                return false;
 
        llist_add((struct llist_node *) bnode, &krcp->bkvcache);
-       krcp->nr_bkv_objs++;
+       WRITE_ONCE(krcp->nr_bkv_objs, krcp->nr_bkv_objs + 1);
        return true;
-
 }
 
 static int
 
        raw_spin_lock_irqsave(&krcp->lock, flags);
        page_list = llist_del_all(&krcp->bkvcache);
-       krcp->nr_bkv_objs = 0;
+       WRITE_ONCE(krcp->nr_bkv_objs, 0);
        raw_spin_unlock_irqrestore(&krcp->lock, flags);
 
        llist_for_each_safe(pos, n, page_list) {
 {
        int cpu;
        unsigned long count = 0;
-       unsigned long flags;
 
        /* Snapshot count of all CPUs */
        for_each_possible_cpu(cpu) {
                struct kfree_rcu_cpu *krcp = per_cpu_ptr(&krc, cpu);
 
                count += READ_ONCE(krcp->count);
-
-               raw_spin_lock_irqsave(&krcp->lock, flags);
-               count += krcp->nr_bkv_objs;
-               raw_spin_unlock_irqrestore(&krcp->lock, flags);
-
+               count += READ_ONCE(krcp->nr_bkv_objs);
                atomic_set(&krcp->backoff_page_cache_fill, 1);
        }