]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
mm: Add flush_dcache_folio()
authorMatthew Wilcox (Oracle) <willy@infradead.org>
Wed, 16 Dec 2020 16:06:33 +0000 (11:06 -0500)
committerMatthew Wilcox (Oracle) <willy@infradead.org>
Sat, 14 Aug 2021 20:59:14 +0000 (16:59 -0400)
This is a default implementation which calls flush_dcache_page() on
each page in the folio.  If architectures can do better, they should
implement their own version of it.

Signed-off-by: Matthew Wilcox (Oracle) <willy@infradead.org>
Acked-by: Vlastimil Babka <vbabka@suse.cz>
Documentation/core-api/cachetlb.rst
arch/arc/include/asm/cacheflush.h
arch/arm/include/asm/cacheflush.h
arch/mips/include/asm/cacheflush.h
arch/nds32/include/asm/cacheflush.h
arch/nios2/include/asm/cacheflush.h
arch/parisc/include/asm/cacheflush.h
arch/sh/include/asm/cacheflush.h
arch/xtensa/include/asm/cacheflush.h
include/asm-generic/cacheflush.h
mm/util.c

index fe4290e26729690a9bf84eee53cdb00c8732dca4..29682f69a91524434b63071204244a30bf3ce2e5 100644 (file)
@@ -325,6 +325,12 @@ maps this page at its virtual address.
                        dirty.  Again, see sparc64 for examples of how
                        to deal with this.
 
+  ``void flush_dcache_folio(struct folio *folio)``
+       This function is called under the same circumstances as
+       flush_dcache_page().  It allows the architecture to
+       optimise for flushing the entire folio of pages instead
+       of flushing one page at a time.
+
   ``void copy_to_user_page(struct vm_area_struct *vma, struct page *page,
   unsigned long user_vaddr, void *dst, void *src, int len)``
   ``void copy_from_user_page(struct vm_area_struct *vma, struct page *page,
index e201b4b1655afee13e11f564af8d49c6e806b660..e8c2c7469e107fab567310d94c6fb133e4bfef81 100644 (file)
@@ -36,6 +36,7 @@ void __flush_dcache_page(phys_addr_t paddr, unsigned long vaddr);
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 1
 
 void flush_dcache_page(struct page *page);
+void flush_dcache_folio(struct folio *folio);
 
 void dma_cache_wback_inv(phys_addr_t start, unsigned long sz);
 void dma_cache_inv(phys_addr_t start, unsigned long sz);
index 2e24e765e6d3af5d6b7842d45d333d3061bfd1ca..23bf823376e1980cf2f222d4fe03aaa3e611925c 100644 (file)
@@ -290,6 +290,7 @@ extern void flush_cache_page(struct vm_area_struct *vma, unsigned long user_addr
  */
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 1
 extern void flush_dcache_page(struct page *);
+void flush_dcache_folio(struct folio *folio);
 
 static inline void flush_kernel_vmap_range(void *addr, int size)
 {
index d687b40b9fbbfffb1e51f88d2b6fe55d7f898a70..c1a43a40f22fc36402907436c952dce8eeab092e 100644 (file)
@@ -61,6 +61,8 @@ static inline void flush_dcache_page(struct page *page)
                SetPageDcacheDirty(page);
 }
 
+void flush_dcache_folio(struct folio *folio);
+
 #define flush_dcache_mmap_lock(mapping)                do { } while (0)
 #define flush_dcache_mmap_unlock(mapping)      do { } while (0)
 
index 7d6824f7c0e8d871723b5a96c8aacf4cf36b4c38..b5037981f023b48ce9db4acb80121c691e8cd095 100644 (file)
@@ -27,6 +27,7 @@ void flush_cache_vunmap(unsigned long start, unsigned long end);
 
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 1
 void flush_dcache_page(struct page *page);
+void flush_dcache_folio(struct folio *folio);
 void copy_to_user_page(struct vm_area_struct *vma, struct page *page,
                       unsigned long vaddr, void *dst, void *src, int len);
 void copy_from_user_page(struct vm_area_struct *vma, struct page *page,
index 18eb9f69f8063b830e3cb3fa6060c7e6cebb4b66..1999561b22aa500eaee03aeb3508ed21bf55f86b 100644 (file)
@@ -28,7 +28,8 @@ extern void flush_cache_range(struct vm_area_struct *vma, unsigned long start,
 extern void flush_cache_page(struct vm_area_struct *vma, unsigned long vmaddr,
        unsigned long pfn);
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 1
-extern void flush_dcache_page(struct page *page);
+void flush_dcache_page(struct page *page);
+void flush_dcache_folio(struct folio *folio);
 
 extern void flush_icache_range(unsigned long start, unsigned long end);
 extern void flush_icache_page(struct vm_area_struct *vma, struct page *page);
index 99663fc1f997fc795cd7f63bee314ae603be5f01..024a0accd94b18a04213a9c67f16e351ee7dbadd 100644 (file)
@@ -53,7 +53,8 @@ void invalidate_kernel_vmap_range(void *vaddr, int size);
 #define flush_cache_vunmap(start, end)         flush_cache_all()
 
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 1
-extern void flush_dcache_page(struct page *page);
+void flush_dcache_page(struct page *page);
+void flush_dcache_folio(struct folio *folio);
 
 #define flush_dcache_mmap_lock(mapping)                xa_lock_irq(&mapping->i_pages)
 #define flush_dcache_mmap_unlock(mapping)      xa_unlock_irq(&mapping->i_pages)
index 4486a865ff62f64f8ac30e9707e3fb8a338860aa..8d19258cc97fa957340511062b2caadf0ad679e2 100644 (file)
@@ -42,7 +42,8 @@ extern void flush_cache_page(struct vm_area_struct *vma,
 extern void flush_cache_range(struct vm_area_struct *vma,
                                 unsigned long start, unsigned long end);
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 1
-extern void flush_dcache_page(struct page *page);
+void flush_dcache_page(struct page *page);
+void flush_dcache_folio(struct folio *folio);
 extern void flush_icache_range(unsigned long start, unsigned long end);
 #define flush_icache_user_range flush_icache_range
 extern void flush_icache_page(struct vm_area_struct *vma,
index cf907e5bf2f2508c18ea79638a049e78e4f96dee..2d321261a58dac76a85a11c2f567e742fa523a5f 100644 (file)
@@ -120,7 +120,8 @@ void flush_cache_page(struct vm_area_struct*,
 #define flush_cache_vunmap(start,end)  flush_cache_all()
 
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 1
-extern void flush_dcache_page(struct page*);
+void flush_dcache_page(struct page *);
+void flush_dcache_folio(struct folio *);
 
 void local_flush_cache_range(struct vm_area_struct *vma,
                unsigned long start, unsigned long end);
index 4a674db4e1fa5eae93b7a09b851c530d721d5815..fedc0dfa4877c7027a553a926be5d65fbff28a9b 100644 (file)
@@ -49,9 +49,15 @@ static inline void flush_cache_page(struct vm_area_struct *vma,
 static inline void flush_dcache_page(struct page *page)
 {
 }
+
+static inline void flush_dcache_folio(struct folio *folio) { }
 #define ARCH_IMPLEMENTS_FLUSH_DCACHE_PAGE 0
+#define ARCH_IMPLEMENTS_FLUSH_DCACHE_FOLIO
 #endif
 
+#ifndef ARCH_IMPLEMENTS_FLUSH_DCACHE_FOLIO
+void flush_dcache_folio(struct folio *folio);
+#endif
 
 #ifndef flush_dcache_mmap_lock
 static inline void flush_dcache_mmap_lock(struct address_space *mapping)
index ec1f3cb827a82da5a5c15648b1ca78495498aea5..d020c077a44c4074c7e9c494686fb459ff73c12c 100644 (file)
--- a/mm/util.c
+++ b/mm/util.c
@@ -1057,3 +1057,14 @@ void page_offline_end(void)
        up_write(&page_offline_rwsem);
 }
 EXPORT_SYMBOL(page_offline_end);
+
+#ifndef ARCH_IMPLEMENTS_FLUSH_DCACHE_FOLIO
+void flush_dcache_folio(struct folio *folio)
+{
+       long i, nr = folio_nr_pages(folio);
+
+       for (i = 0; i < nr; i++)
+               flush_dcache_page(folio_page(folio, i));
+}
+EXPORT_SYMBOL(flush_dcache_folio);
+#endif