}
 
 static __always_inline void __folio_dup_file_rmap(struct folio *folio,
-               struct page *page, int nr_pages, enum rmap_level level)
+               struct page *page, int nr_pages, struct vm_area_struct *dst_vma,
+               enum rmap_level level)
 {
        const int orig_nr_pages = nr_pages;
 
  * @folio:     The folio to duplicate the mappings of
  * @page:      The first page to duplicate the mappings of
  * @nr_pages:  The number of pages of which the mapping will be duplicated
+ * @dst_vma:   The destination vm area
  *
  * The page range of the folio is defined by [page, page + nr_pages)
  *
  * The caller needs to hold the page table lock.
  */
 static inline void folio_dup_file_rmap_ptes(struct folio *folio,
-               struct page *page, int nr_pages)
+               struct page *page, int nr_pages, struct vm_area_struct *dst_vma)
 {
-       __folio_dup_file_rmap(folio, page, nr_pages, RMAP_LEVEL_PTE);
+       __folio_dup_file_rmap(folio, page, nr_pages, dst_vma, RMAP_LEVEL_PTE);
 }
 
 static __always_inline void folio_dup_file_rmap_pte(struct folio *folio,
-               struct page *page)
+               struct page *page, struct vm_area_struct *dst_vma)
 {
-       __folio_dup_file_rmap(folio, page, 1, RMAP_LEVEL_PTE);
+       __folio_dup_file_rmap(folio, page, 1, dst_vma, RMAP_LEVEL_PTE);
 }
 
 /**
  * folio_dup_file_rmap_pmd - duplicate a PMD mapping of a page range of a folio
  * @folio:     The folio to duplicate the mapping of
  * @page:      The first page to duplicate the mapping of
+ * @dst_vma:   The destination vm area
  *
  * The page range of the folio is defined by [page, page + HPAGE_PMD_NR)
  *
  * The caller needs to hold the page table lock.
  */
 static inline void folio_dup_file_rmap_pmd(struct folio *folio,
-               struct page *page)
+               struct page *page, struct vm_area_struct *dst_vma)
 {
 #ifdef CONFIG_TRANSPARENT_HUGEPAGE
-       __folio_dup_file_rmap(folio, page, HPAGE_PMD_NR, RMAP_LEVEL_PTE);
+       __folio_dup_file_rmap(folio, page, HPAGE_PMD_NR, dst_vma, RMAP_LEVEL_PTE);
 #else
        WARN_ON_ONCE(true);
 #endif
 }
 
 static __always_inline int __folio_try_dup_anon_rmap(struct folio *folio,
-               struct page *page, int nr_pages, struct vm_area_struct *src_vma,
-               enum rmap_level level)
+               struct page *page, int nr_pages, struct vm_area_struct *dst_vma,
+               struct vm_area_struct *src_vma, enum rmap_level level)
 {
        const int orig_nr_pages = nr_pages;
        bool maybe_pinned;
  * @folio:     The folio to duplicate the mappings of
  * @page:      The first page to duplicate the mappings of
  * @nr_pages:  The number of pages of which the mapping will be duplicated
+ * @dst_vma:   The destination vm area
  * @src_vma:   The vm area from which the mappings are duplicated
  *
  * The page range of the folio is defined by [page, page + nr_pages)
  * Returns 0 if duplicating the mappings succeeded. Returns -EBUSY otherwise.
  */
 static inline int folio_try_dup_anon_rmap_ptes(struct folio *folio,
-               struct page *page, int nr_pages, struct vm_area_struct *src_vma)
+               struct page *page, int nr_pages, struct vm_area_struct *dst_vma,
+               struct vm_area_struct *src_vma)
 {
-       return __folio_try_dup_anon_rmap(folio, page, nr_pages, src_vma,
-                                        RMAP_LEVEL_PTE);
+       return __folio_try_dup_anon_rmap(folio, page, nr_pages, dst_vma,
+                                        src_vma, RMAP_LEVEL_PTE);
 }
 
 static __always_inline int folio_try_dup_anon_rmap_pte(struct folio *folio,
-               struct page *page, struct vm_area_struct *src_vma)
+               struct page *page, struct vm_area_struct *dst_vma,
+               struct vm_area_struct *src_vma)
 {
-       return __folio_try_dup_anon_rmap(folio, page, 1, src_vma,
+       return __folio_try_dup_anon_rmap(folio, page, 1, dst_vma, src_vma,
                                         RMAP_LEVEL_PTE);
 }
 
  *                              of a folio
  * @folio:     The folio to duplicate the mapping of
  * @page:      The first page to duplicate the mapping of
+ * @dst_vma:   The destination vm area
  * @src_vma:   The vm area from which the mapping is duplicated
  *
  * The page range of the folio is defined by [page, page + HPAGE_PMD_NR)
  * Returns 0 if duplicating the mapping succeeded. Returns -EBUSY otherwise.
  */
 static inline int folio_try_dup_anon_rmap_pmd(struct folio *folio,
-               struct page *page, struct vm_area_struct *src_vma)
+               struct page *page, struct vm_area_struct *dst_vma,
+               struct vm_area_struct *src_vma)
 {
 #ifdef CONFIG_TRANSPARENT_HUGEPAGE
-       return __folio_try_dup_anon_rmap(folio, page, HPAGE_PMD_NR, src_vma,
-                                        RMAP_LEVEL_PMD);
+       return __folio_try_dup_anon_rmap(folio, page, HPAGE_PMD_NR, dst_vma,
+                                        src_vma, RMAP_LEVEL_PMD);
 #else
        WARN_ON_ONCE(true);
        return -EBUSY;
 
                folio_get(folio);
                rss[mm_counter(folio)]++;
                /* Cannot fail as these pages cannot get pinned. */
-               folio_try_dup_anon_rmap_pte(folio, page, src_vma);
+               folio_try_dup_anon_rmap_pte(folio, page, dst_vma, src_vma);
 
                /*
                 * We do not preserve soft-dirty information, because so
                folio_ref_add(folio, nr);
                if (folio_test_anon(folio)) {
                        if (unlikely(folio_try_dup_anon_rmap_ptes(folio, page,
-                                                                 nr, src_vma))) {
+                                                                 nr, dst_vma, src_vma))) {
                                folio_ref_sub(folio, nr);
                                return -EAGAIN;
                        }
                        rss[MM_ANONPAGES] += nr;
                        VM_WARN_ON_FOLIO(PageAnonExclusive(page), folio);
                } else {
-                       folio_dup_file_rmap_ptes(folio, page, nr);
+                       folio_dup_file_rmap_ptes(folio, page, nr, dst_vma);
                        rss[mm_counter_file(folio)] += nr;
                }
                if (any_writable)
                 * guarantee the pinned page won't be randomly replaced in the
                 * future.
                 */
-               if (unlikely(folio_try_dup_anon_rmap_pte(folio, page, src_vma))) {
+               if (unlikely(folio_try_dup_anon_rmap_pte(folio, page, dst_vma, src_vma))) {
                        /* Page may be pinned, we have to copy. */
                        folio_put(folio);
                        err = copy_present_page(dst_vma, src_vma, dst_pte, src_pte,
                rss[MM_ANONPAGES]++;
                VM_WARN_ON_FOLIO(PageAnonExclusive(page), folio);
        } else {
-               folio_dup_file_rmap_pte(folio, page);
+               folio_dup_file_rmap_pte(folio, page, dst_vma);
                rss[mm_counter_file(folio)]++;
        }