]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
mm/mmap: Drop range_has_overlap() function
authorLiam R. Howlett <Liam.Howlett@Oracle.com>
Fri, 18 Jun 2021 19:06:12 +0000 (15:06 -0400)
committerLiam R. Howlett <Liam.Howlett@Oracle.com>
Thu, 24 Jun 2021 20:04:25 +0000 (16:04 -0400)
Since there is no longer a linked list, the range_has_overlap() function
is identical to the find_vma_intersection() function.  There is only one
place that actually needs the previous vma, so just use vma_prev() in
that one case.

Signed-off-by: Liam R. Howlett <Liam.Howlett@Oracle.com>
mm/mmap.c

index 52feaefc4c6e94d285ad6d3b587c3e93a04f3a38..45aa4799f7f3d553fb045ad3bdc5d806dd3a5a69 100644 (file)
--- a/mm/mmap.c
+++ b/mm/mmap.c
@@ -435,30 +435,6 @@ anon_vma_interval_tree_post_update_vma(struct vm_area_struct *vma)
                anon_vma_interval_tree_insert(avc, &avc->anon_vma->rb_root);
 }
 
-/*
- * range_has_overlap() - Check the @start - @end range for overlapping VMAs and
- * sets up a pointer to the previous VMA
- * @mm: the mm struct
- * @start: the start address of the range
- * @end: the end address of the range
- * @pprev: the pointer to the pointer of the previous VMA
- *
- * Returns: True if there is an overlapping VMA, false otherwise
- */
-static inline
-bool range_has_overlap(struct mm_struct *mm, unsigned long start,
-                      unsigned long end, struct vm_area_struct **pprev)
-{
-       struct vm_area_struct *existing;
-
-       MA_STATE(mas, &mm->mm_mt, start, start);
-       rcu_read_lock();
-       existing = mas_find(&mas, end - 1);
-       *pprev = mas_prev(&mas, 0);
-       rcu_read_unlock();
-       return existing ? true : false;
-}
-
 /*
  * count_vma_pages_range() - Count the number of pages in a range.
  * @mas: The maple state
@@ -558,7 +534,7 @@ void vma_mt_store(struct mm_struct *mm, struct vm_area_struct *vma)
  * Must not hold the maple tree lock.
  */
 static void vma_mas_link(struct mm_struct *mm, struct vm_area_struct *vma,
-                        struct ma_state *mas, struct vm_area_struct *prev)
+                        struct ma_state *mas)
 {
        struct address_space *mapping = NULL;
 
@@ -578,8 +554,7 @@ static void vma_mas_link(struct mm_struct *mm, struct vm_area_struct *vma,
        mm->map_count++;
 }
 
-static void vma_link(struct mm_struct *mm, struct vm_area_struct *vma,
-                       struct vm_area_struct *prev)
+static void vma_link(struct mm_struct *mm, struct vm_area_struct *vma)
 {
        struct address_space *mapping = NULL;
 
@@ -604,9 +579,7 @@ static void vma_link(struct mm_struct *mm, struct vm_area_struct *vma,
  */
 static void __insert_vm_struct(struct mm_struct *mm, struct vm_area_struct *vma)
 {
-       struct vm_area_struct *prev;
-
-       BUG_ON(range_has_overlap(mm, vma->vm_start, vma->vm_end, &prev));
+       BUG_ON(find_vma_intersection(mm, vma->vm_start, vma->vm_end));
        vma_mt_store(mm, vma);
        mm->map_count++;
 }
@@ -2779,7 +2752,7 @@ cannot_expand:
        }
 
        mas_set(&mas, addr);
-       vma_mas_link(mm, vma, &mas, prev);
+       vma_mas_link(mm, vma, &mas);
        /* Once vma denies write, undo our temporary denial count */
        if (file) {
 unmap_writable:
@@ -3164,7 +3137,7 @@ static int do_brk_flags(struct ma_state *mas, struct ma_state *ma_prev,
        vma->vm_pgoff = addr >> PAGE_SHIFT;
        vma->vm_flags = flags;
        vma->vm_page_prot = vm_get_page_prot(flags);
-       vma_mas_link(mm, vma, mas, NULL);
+       vma_mas_link(mm, vma, mas);
        *brkvma = vma;
 out:
        perf_event_mmap(vma);
@@ -3316,9 +3289,7 @@ void exit_mmap(struct mm_struct *mm)
  */
 int insert_vm_struct(struct mm_struct *mm, struct vm_area_struct *vma)
 {
-       struct vm_area_struct *prev;
-
-       if (range_has_overlap(mm, vma->vm_start, vma->vm_end, &prev))
+       if (find_vma_intersection(mm, vma->vm_start, vma->vm_end))
                return -ENOMEM;
 
        if ((vma->vm_flags & VM_ACCOUNT) &&
@@ -3342,7 +3313,7 @@ int insert_vm_struct(struct mm_struct *mm, struct vm_area_struct *vma)
                vma->vm_pgoff = vma->vm_start >> PAGE_SHIFT;
        }
 
-       vma_link(mm, vma, prev);
+       vma_link(mm, vma);
        return 0;
 }
 
@@ -3357,7 +3328,8 @@ struct vm_area_struct *copy_vma(struct vm_area_struct **vmap,
        struct vm_area_struct *vma = *vmap;
        unsigned long vma_start = vma->vm_start;
        struct mm_struct *mm = vma->vm_mm;
-       struct vm_area_struct *new_vma, *prev;
+       struct vm_area_struct *new_vma;
+       struct vm_area_struct *prev;
        bool faulted_in_anon_vma = true;
 
        validate_mm_mt(mm);
@@ -3370,9 +3342,10 @@ struct vm_area_struct *copy_vma(struct vm_area_struct **vmap,
                faulted_in_anon_vma = false;
        }
 
-       if (range_has_overlap(mm, addr, addr + len, &prev))
+       if (find_vma_intersection(mm, addr, addr + len))
                return NULL;    /* should never get here */
 
+       prev = vma_prev(mm, vma);
        new_vma = vma_merge(mm, prev, addr, addr + len, vma->vm_flags,
                            vma->anon_vma, vma->vm_file, pgoff, vma_policy(vma),
                            vma->vm_userfaultfd_ctx);
@@ -3413,7 +3386,7 @@ struct vm_area_struct *copy_vma(struct vm_area_struct **vmap,
                        get_file(new_vma->vm_file);
                if (new_vma->vm_ops && new_vma->vm_ops->open)
                        new_vma->vm_ops->open(new_vma);
-               vma_link(mm, new_vma, prev);
+               vma_link(mm, new_vma);
                *need_rmap_locks = false;
        }
        validate_mm_mt(mm);