]> www.infradead.org Git - users/willy/pagecache.git/commitdiff
um: Implement the new page table range API
authorMatthew Wilcox (Oracle) <willy@infradead.org>
Mon, 13 Feb 2023 19:12:22 +0000 (14:12 -0500)
committerMatthew Wilcox (Oracle) <willy@infradead.org>
Wed, 2 Aug 2023 02:53:27 +0000 (22:53 -0400)
Add PFN_PTE_SHIFT and update_mmu_cache_range().

Signed-off-by: Matthew Wilcox (Oracle) <willy@infradead.org>
Acked-by: Mike Rapoport (IBM) <rppt@kernel.org>
Cc: Richard Weinberger <richard@nod.at>
Cc: Anton Ivanov <anton.ivanov@cambridgegreys.com>
Cc: Johannes Berg <johannes@sipsolutions.net>
Cc: linux-um@lists.infradead.org
arch/um/include/asm/pgtable.h

index a70d1618eb35f2dc74dba0db35ee444b1d6658db..44f6c76167d9897cbda473e0e8347426606b5097 100644 (file)
@@ -242,11 +242,7 @@ static inline void set_pte(pte_t *pteptr, pte_t pteval)
        if(pte_present(*pteptr)) *pteptr = pte_mknewprot(*pteptr);
 }
 
-static inline void set_pte_at(struct mm_struct *mm, unsigned long addr,
-                             pte_t *pteptr, pte_t pteval)
-{
-       set_pte(pteptr, pteval);
-}
+#define PFN_PTE_SHIFT          PAGE_SHIFT
 
 #define __HAVE_ARCH_PTE_SAME
 static inline int pte_same(pte_t pte_a, pte_t pte_b)
@@ -290,6 +286,7 @@ struct mm_struct;
 extern pte_t *virt_to_pte(struct mm_struct *mm, unsigned long addr);
 
 #define update_mmu_cache(vma,address,ptep) do {} while (0)
+#define update_mmu_cache_range(vmf, vma, address, ptep, nr) do {} while (0)
 
 /*
  * Encode/decode swap entries and swap PTEs. Swap PTEs are all PTEs that