]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
memcg: move mem_cgroup_charge_statistics to v1 code
authorShakeel Butt <shakeel.butt@linux.dev>
Thu, 15 Aug 2024 05:04:49 +0000 (22:04 -0700)
committerAndrew Morton <akpm@linux-foundation.org>
Sat, 17 Aug 2024 00:53:23 +0000 (17:53 -0700)
There are no callers of mem_cgroup_charge_statistics() in the v2 code
base, so move it to the v1 only code and rename it to
memcg1_charge_statistics().

Link: https://lkml.kernel.org/r/20240815050453.1298138-4-shakeel.butt@linux.dev
Signed-off-by: Shakeel Butt <shakeel.butt@linux.dev>
Cc: Johannes Weiner <hannes@cmpxchg.org>
Cc: Michal Hocko <mhocko@kernel.org>
Cc: Muchun Song <muchun.song@linux.dev>
Cc: Roman Gushchin <roman.gushchin@linux.dev>
Cc: T.J. Mercier <tjmercier@google.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
mm/memcontrol-v1.c
mm/memcontrol-v1.h
mm/memcontrol.c

index f7edff52e019c40ef51fdef1ab6dde158c767e45..b325cb3371d7e7378e5eab397b5b65b0254bd8a7 100644 (file)
@@ -853,9 +853,9 @@ static int mem_cgroup_move_account(struct folio *folio,
        nid = folio_nid(folio);
 
        local_irq_disable();
-       mem_cgroup_charge_statistics(to, nr_pages);
+       memcg1_charge_statistics(to, nr_pages);
        memcg1_check_events(to, nid);
-       mem_cgroup_charge_statistics(from, -nr_pages);
+       memcg1_charge_statistics(from, -nr_pages);
        memcg1_check_events(from, nid);
        local_irq_enable();
 out:
@@ -1439,6 +1439,19 @@ static void mem_cgroup_threshold(struct mem_cgroup *memcg)
        }
 }
 
+void memcg1_charge_statistics(struct mem_cgroup *memcg, int nr_pages)
+{
+       /* pagein of a big page is an event. So, ignore page size */
+       if (nr_pages > 0)
+               __count_memcg_events(memcg, PGPGIN, 1);
+       else {
+               __count_memcg_events(memcg, PGPGOUT, 1);
+               nr_pages = -nr_pages; /* for event */
+       }
+
+       __this_cpu_add(memcg->events_percpu->nr_page_events, nr_pages);
+}
+
 #define THRESHOLDS_EVENTS_TARGET 128
 #define SOFTLIMIT_EVENTS_TARGET 1024
 
index fb7d439f19de7f299c5a15a6cb709f013a4585d0..ef72d0b7c5c68807dc2571f53c2b5f2dcffdcf4e 100644 (file)
@@ -7,7 +7,6 @@
 
 /* Cgroup v1 and v2 common declarations */
 
-void mem_cgroup_charge_statistics(struct mem_cgroup *memcg, int nr_pages);
 int try_charge_memcg(struct mem_cgroup *memcg, gfp_t gfp_mask,
                     unsigned int nr_pages);
 
@@ -116,6 +115,7 @@ bool memcg1_oom_prepare(struct mem_cgroup *memcg, bool *locked);
 void memcg1_oom_finish(struct mem_cgroup *memcg, bool locked);
 void memcg1_oom_recover(struct mem_cgroup *memcg);
 
+void memcg1_charge_statistics(struct mem_cgroup *memcg, int nr_pages);
 void memcg1_check_events(struct mem_cgroup *memcg, int nid);
 
 void memcg1_stat_format(struct mem_cgroup *memcg, struct seq_buf *s);
@@ -147,6 +147,7 @@ static inline bool memcg1_oom_prepare(struct mem_cgroup *memcg, bool *locked) {
 static inline void memcg1_oom_finish(struct mem_cgroup *memcg, bool locked) {}
 static inline void memcg1_oom_recover(struct mem_cgroup *memcg) {}
 
+static inline void memcg1_charge_statistics(struct mem_cgroup *memcg, int nr_pages) {}
 static inline void memcg1_check_events(struct mem_cgroup *memcg, int nid) {}
 
 static inline void memcg1_stat_format(struct mem_cgroup *memcg, struct seq_buf *s) {}
index 31c91e4e3755893f24ff7f7392d82cc603b52f66..85dd414fd1038792b07528f52e17809927d39baa 100644 (file)
@@ -851,19 +851,6 @@ unsigned long memcg_events_local(struct mem_cgroup *memcg, int event)
        return READ_ONCE(memcg->vmstats->events_local[i]);
 }
 
-void mem_cgroup_charge_statistics(struct mem_cgroup *memcg, int nr_pages)
-{
-       /* pagein of a big page is an event. So, ignore page size */
-       if (nr_pages > 0)
-               __count_memcg_events(memcg, PGPGIN, 1);
-       else {
-               __count_memcg_events(memcg, PGPGOUT, 1);
-               nr_pages = -nr_pages; /* for event */
-       }
-
-       __this_cpu_add(memcg->events_percpu->nr_page_events, nr_pages);
-}
-
 struct mem_cgroup *mem_cgroup_from_task(struct task_struct *p)
 {
        /*
@@ -2411,7 +2398,7 @@ void mem_cgroup_commit_charge(struct folio *folio, struct mem_cgroup *memcg)
        commit_charge(folio, memcg);
 
        local_irq_disable();
-       mem_cgroup_charge_statistics(memcg, folio_nr_pages(folio));
+       memcg1_charge_statistics(memcg, folio_nr_pages(folio));
        memcg1_check_events(memcg, folio_nid(folio));
        local_irq_enable();
 }
@@ -4788,7 +4775,7 @@ void mem_cgroup_replace_folio(struct folio *old, struct folio *new)
        commit_charge(new, memcg);
 
        local_irq_save(flags);
-       mem_cgroup_charge_statistics(memcg, nr_pages);
+       memcg1_charge_statistics(memcg, nr_pages);
        memcg1_check_events(memcg, folio_nid(new));
        local_irq_restore(flags);
 }
@@ -5033,7 +5020,7 @@ void mem_cgroup_swapout(struct folio *folio, swp_entry_t entry)
         * only synchronisation we have for updating the per-CPU variables.
         */
        memcg_stats_lock();
-       mem_cgroup_charge_statistics(memcg, -nr_entries);
+       memcg1_charge_statistics(memcg, -nr_entries);
        memcg_stats_unlock();
        memcg1_check_events(memcg, folio_nid(folio));