}
 
 static __always_inline unsigned int __folio_add_rmap(struct folio *folio,
-               struct page *page, int nr_pages, enum rmap_level level,
-               int *nr_pmdmapped)
+               struct page *page, int nr_pages, struct vm_area_struct *vma,
+               enum rmap_level level, int *nr_pmdmapped)
 {
        atomic_t *mapped = &folio->_nr_pages_mapped;
        const int orig_nr_pages = nr_pages;
 
        VM_WARN_ON_FOLIO(!folio_test_anon(folio), folio);
 
-       nr = __folio_add_rmap(folio, page, nr_pages, level, &nr_pmdmapped);
+       nr = __folio_add_rmap(folio, page, nr_pages, vma, level, &nr_pmdmapped);
 
        if (likely(!folio_test_ksm(folio)))
                __page_check_anon_rmap(folio, page, vma, address);
 
        VM_WARN_ON_FOLIO(folio_test_anon(folio), folio);
 
-       nr = __folio_add_rmap(folio, page, nr_pages, level, &nr_pmdmapped);
+       nr = __folio_add_rmap(folio, page, nr_pages, vma, level, &nr_pmdmapped);
        __folio_mod_stat(folio, nr, nr_pmdmapped);
 
        /* See comments in folio_add_anon_rmap_*() */