]> www.infradead.org Git - users/willy/pagecache.git/commitdiff
mm: Add folio_add_new_anon_rmap()
authorMatthew Wilcox (Oracle) <willy@infradead.org>
Fri, 30 Dec 2022 19:34:55 +0000 (14:34 -0500)
committerMatthew Wilcox (Oracle) <willy@infradead.org>
Tue, 3 Jan 2023 04:00:55 +0000 (23:00 -0500)
In contrast to other rmap functions, page_add_new_anon_rmap() is always
called with a freshly allocated page.  That means it can't be called with
a tail page.  Turn page_add_new_anon_rmap() into folio_add_new_anon_rmap()
and add a page_add_new_anon_rmap() wrapper.  Callers can be converted
individually.

Signed-off-by: Matthew Wilcox (Oracle) <willy@infradead.org>
include/linux/rmap.h
mm/folio-compat.c
mm/rmap.c

index bd3504d11b15590f0e41232e234eebc1149baad4..aa682a2a93ce3b2f8d01a6cc125338fda833c496 100644 (file)
@@ -194,6 +194,8 @@ void page_add_anon_rmap(struct page *, struct vm_area_struct *,
                unsigned long address, rmap_t flags);
 void page_add_new_anon_rmap(struct page *, struct vm_area_struct *,
                unsigned long address);
+void folio_add_new_anon_rmap(struct folio *, struct vm_area_struct *,
+               unsigned long address);
 void page_add_file_rmap(struct page *, struct vm_area_struct *,
                bool compound);
 void page_remove_rmap(struct page *, struct vm_area_struct *,
index 69ed25790c68d4268122992a4dcf02b40637b5bf..92f53adc0dd9911eb2cbcfa5dc6b802029de38a0 100644 (file)
@@ -123,3 +123,11 @@ void putback_lru_page(struct page *page)
 {
        folio_putback_lru(page_folio(page));
 }
+
+void page_add_new_anon_rmap(struct page *page, struct vm_area_struct *vma,
+               unsigned long address)
+{
+       VM_BUG_ON_PAGE(PageTail(page), page);
+
+       return folio_add_new_anon_rmap((struct folio *)page, vma, address);
+}
index 7808269bf1f6e8c3e8136f22e62aa813f239a58e..c7e04747742f905d346c9bc192fa0826442aeb88 100644 (file)
--- a/mm/rmap.c
+++ b/mm/rmap.c
@@ -1275,41 +1275,40 @@ void page_add_anon_rmap(struct page *page, struct vm_area_struct *vma,
 }
 
 /**
- * page_add_new_anon_rmap - add mapping to a new anonymous page
- * @page:      the page to add the mapping to
+ * folio_add_new_anon_rmap - Add mapping to a new anonymous folio.
+ * @folio:     The folio to add the mapping to.
  * @vma:       the vm area in which the mapping is added
  * @address:   the user virtual address mapped
  *
- * If it's a compound page, it is accounted as a compound page. As the page
- * is new, it's assume to get mapped exclusively by a single process.
- *
- * Same as page_add_anon_rmap but must only be called on *new* pages.
+ * Like page_add_anon_rmap() but must only be called on *new* folios.
  * This means the inc-and-test can be bypassed.
- * Page does not have to be locked.
+ * The folio does not have to be locked.
+ *
+ * If the folio is large, it is accounted as a THP.  As the folio
+ * is new, it's assumed to be mapped exclusively by a single process.
  */
-void page_add_new_anon_rmap(struct page *page,
-       struct vm_area_struct *vma, unsigned long address)
+void folio_add_new_anon_rmap(struct folio *folio, struct vm_area_struct *vma,
+               unsigned long address)
 {
        int nr;
 
        VM_BUG_ON_VMA(address < vma->vm_start || address >= vma->vm_end, vma);
-       __SetPageSwapBacked(page);
+       __folio_set_swapbacked(folio);
 
-       if (likely(!PageCompound(page))) {
+       if (likely(!folio_test_pmd_mappable(folio))) {
                /* increment count (starts at -1) */
-               atomic_set(&page->_mapcount, 0);
+               atomic_set(&folio->_mapcount, 0);
                nr = 1;
        } else {
-               VM_BUG_ON_PAGE(!PageTransHuge(page), page);
                /* increment count (starts at -1) */
-               atomic_set(compound_mapcount_ptr(page), 0);
-               atomic_set(subpages_mapcount_ptr(page), COMPOUND_MAPPED);
-               nr = thp_nr_pages(page);
-               __mod_lruvec_page_state(page, NR_ANON_THPS, nr);
+               atomic_set(&folio->_entire_mapcount, 0);
+               atomic_set(&folio->_nr_pages_mapped, COMPOUND_MAPPED);
+               nr = folio_nr_pages(folio);
+               __lruvec_stat_mod_folio(folio, NR_ANON_THPS, nr);
        }
 
-       __mod_lruvec_page_state(page, NR_ANON_MAPPED, nr);
-       __page_set_anon_rmap(page, vma, address, 1);
+       __lruvec_stat_mod_folio(folio, NR_ANON_MAPPED, nr);
+       __page_set_anon_rmap(&folio->page, vma, address, 1);
 }
 
 /**