folios_put(fbatch);
 }
 
-static void folio_batch_add_and_move(struct folio_batch *fbatch,
-               struct folio *folio, move_fn_t move_fn)
+static void __folio_batch_add_and_move(struct folio_batch __percpu *fbatch,
+               struct folio *folio, move_fn_t move_fn,
+               bool on_lru, bool disable_irq)
 {
-       if (folio_batch_add(fbatch, folio) && !folio_test_large(folio) &&
-           !lru_cache_disabled())
+       unsigned long flags;
+
+       folio_get(folio);
+
+       if (on_lru && !folio_test_clear_lru(folio)) {
+               folio_put(folio);
                return;
+       }
+
+       if (disable_irq)
+               local_lock_irqsave(&cpu_fbatches.lock_irq, flags);
+       else
+               local_lock(&cpu_fbatches.lock);
+
+       if (!folio_batch_add(this_cpu_ptr(fbatch), folio) || folio_test_large(folio) ||
+           lru_cache_disabled())
+               folio_batch_move_lru(this_cpu_ptr(fbatch), move_fn);
 
-       folio_batch_move_lru(fbatch, move_fn);
+       if (disable_irq)
+               local_unlock_irqrestore(&cpu_fbatches.lock_irq, flags);
+       else
+               local_unlock(&cpu_fbatches.lock);
 }
 
+#define folio_batch_add_and_move(folio, op, on_lru)                                            \
+       __folio_batch_add_and_move(                                                             \
+               &cpu_fbatches.op,                                                               \
+               folio,                                                                          \
+               op,                                                                             \
+               on_lru,                                                                         \
+               offsetof(struct cpu_fbatches, op) > offsetof(struct cpu_fbatches, lock_irq)     \
+       )
+
 static void lru_move_tail(struct lruvec *lruvec, struct folio *folio)
 {
        if (folio_test_unevictable(folio))
  */
 void folio_rotate_reclaimable(struct folio *folio)
 {
-       struct folio_batch *fbatch;
-       unsigned long flags;
-
        if (folio_test_locked(folio) || folio_test_dirty(folio) ||
            folio_test_unevictable(folio))
                return;
 
-       folio_get(folio);
-       if (!folio_test_clear_lru(folio)) {
-               folio_put(folio);
-               return;
-       }
-
-       local_lock_irqsave(&cpu_fbatches.lock_irq, flags);
-       fbatch = this_cpu_ptr(&cpu_fbatches.lru_move_tail);
-       folio_batch_add_and_move(fbatch, folio, lru_move_tail);
-       local_unlock_irqrestore(&cpu_fbatches.lock_irq, flags);
+       folio_batch_add_and_move(folio, lru_move_tail, true);
 }
 
 void lru_note_cost(struct lruvec *lruvec, bool file,
 
 void folio_activate(struct folio *folio)
 {
-       struct folio_batch *fbatch;
-
        if (folio_test_active(folio) || folio_test_unevictable(folio))
                return;
 
-       folio_get(folio);
-       if (!folio_test_clear_lru(folio)) {
-               folio_put(folio);
-               return;
-       }
-
-       local_lock(&cpu_fbatches.lock);
-       fbatch = this_cpu_ptr(&cpu_fbatches.lru_activate);
-       folio_batch_add_and_move(fbatch, folio, lru_activate);
-       local_unlock(&cpu_fbatches.lock);
+       folio_batch_add_and_move(folio, lru_activate, true);
 }
 
 #else
  */
 void folio_add_lru(struct folio *folio)
 {
-       struct folio_batch *fbatch;
-
        VM_BUG_ON_FOLIO(folio_test_active(folio) &&
                        folio_test_unevictable(folio), folio);
        VM_BUG_ON_FOLIO(folio_test_lru(folio), folio);
            lru_gen_in_fault() && !(current->flags & PF_MEMALLOC))
                folio_set_active(folio);
 
-       folio_get(folio);
-       local_lock(&cpu_fbatches.lock);
-       fbatch = this_cpu_ptr(&cpu_fbatches.lru_add);
-       folio_batch_add_and_move(fbatch, folio, lru_add);
-       local_unlock(&cpu_fbatches.lock);
+       folio_batch_add_and_move(folio, lru_add, false);
 }
 EXPORT_SYMBOL(folio_add_lru);
 
  */
 void deactivate_file_folio(struct folio *folio)
 {
-       struct folio_batch *fbatch;
-
        /* Deactivating an unevictable folio will not accelerate reclaim */
        if (folio_test_unevictable(folio))
                return;
 
-       folio_get(folio);
-       if (!folio_test_clear_lru(folio)) {
-               folio_put(folio);
-               return;
-       }
-
-       local_lock(&cpu_fbatches.lock);
-       fbatch = this_cpu_ptr(&cpu_fbatches.lru_deactivate_file);
-       folio_batch_add_and_move(fbatch, folio, lru_deactivate_file);
-       local_unlock(&cpu_fbatches.lock);
+       folio_batch_add_and_move(folio, lru_deactivate_file, true);
 }
 
 /*
  */
 void folio_deactivate(struct folio *folio)
 {
-       struct folio_batch *fbatch;
-
        if (folio_test_unevictable(folio) || !(folio_test_active(folio) || lru_gen_enabled()))
                return;
 
-       folio_get(folio);
-       if (!folio_test_clear_lru(folio)) {
-               folio_put(folio);
-               return;
-       }
-
-       local_lock(&cpu_fbatches.lock);
-       fbatch = this_cpu_ptr(&cpu_fbatches.lru_deactivate);
-       folio_batch_add_and_move(fbatch, folio, lru_deactivate);
-       local_unlock(&cpu_fbatches.lock);
+       folio_batch_add_and_move(folio, lru_deactivate, true);
 }
 
 /**
  */
 void folio_mark_lazyfree(struct folio *folio)
 {
-       struct folio_batch *fbatch;
-
        if (!folio_test_anon(folio) || !folio_test_swapbacked(folio) ||
            folio_test_swapcache(folio) || folio_test_unevictable(folio))
                return;
 
-       folio_get(folio);
-       if (!folio_test_clear_lru(folio)) {
-               folio_put(folio);
-               return;
-       }
-
-       local_lock(&cpu_fbatches.lock);
-       fbatch = this_cpu_ptr(&cpu_fbatches.lru_lazyfree);
-       folio_batch_add_and_move(fbatch, folio, lru_lazyfree);
-       local_unlock(&cpu_fbatches.lock);
+       folio_batch_add_and_move(folio, lru_lazyfree, true);
 }
 
 void lru_add_drain(void)