i_mmap_lock_read(mapping);
        vma_interval_tree_foreach(vma, &mapping->i_mmap, index, index) {
-               unsigned long address, start, end;
+               struct mmu_notifier_range range;
+               unsigned long address;
 
                cond_resched();
 
                 * call mmu_notifier_invalidate_range_start() on our behalf
                 * before taking any lock.
                 */
-               if (follow_pte_pmd(vma->vm_mm, address, &start, &end, &ptep, &pmdp, &ptl))
+               if (follow_pte_pmd(vma->vm_mm, address, &range,
+                                  &ptep, &pmdp, &ptl))
                        continue;
 
                /*
                        pte_unmap_unlock(ptep, ptl);
                }
 
-               mmu_notifier_invalidate_range_end(vma->vm_mm, start, end);
+               mmu_notifier_invalidate_range_end(&range);
        }
        i_mmap_unlock_read(mapping);
 }
 
                return -ESRCH;
        mm = get_task_mm(task);
        if (mm) {
+               struct mmu_notifier_range range;
                struct clear_refs_private cp = {
                        .type = type,
                };
                                downgrade_write(&mm->mmap_sem);
                                break;
                        }
-                       mmu_notifier_invalidate_range_start(mm, 0, -1);
+
+                       mmu_notifier_range_init(&range, mm, 0, -1UL);
+                       mmu_notifier_invalidate_range_start(&range);
                }
                walk_page_range(0, mm->highest_vm_end, &clear_refs_walk);
                if (type == CLEAR_REFS_SOFT_DIRTY)
-                       mmu_notifier_invalidate_range_end(mm, 0, -1);
+                       mmu_notifier_invalidate_range_end(&range);
                tlb_finish_mmu(&tlb, 0, -1);
                up_read(&mm->mmap_sem);
 out_mm:
 
        void *private;
 };
 
+struct mmu_notifier_range;
+
 int walk_page_range(unsigned long addr, unsigned long end,
                struct mm_walk *walk);
 int walk_page_vma(struct vm_area_struct *vma, struct mm_walk *walk);
 int copy_page_range(struct mm_struct *dst, struct mm_struct *src,
                        struct vm_area_struct *vma);
 int follow_pte_pmd(struct mm_struct *mm, unsigned long address,
-                            unsigned long *start, unsigned long *end,
-                            pte_t **ptepp, pmd_t **pmdpp, spinlock_t **ptlp);
+                  struct mmu_notifier_range *range,
+                  pte_t **ptepp, pmd_t **pmdpp, spinlock_t **ptlp);
 int follow_pfn(struct vm_area_struct *vma, unsigned long address,
        unsigned long *pfn);
 int follow_phys(struct vm_area_struct *vma, unsigned long address,
 
                                     unsigned long address);
 extern void __mmu_notifier_change_pte(struct mm_struct *mm,
                                      unsigned long address, pte_t pte);
-extern int __mmu_notifier_invalidate_range_start(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end,
-                                 bool blockable);
-extern void __mmu_notifier_invalidate_range_end(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end,
+extern int __mmu_notifier_invalidate_range_start(struct mmu_notifier_range *r);
+extern void __mmu_notifier_invalidate_range_end(struct mmu_notifier_range *r,
                                  bool only_end);
 extern void __mmu_notifier_invalidate_range(struct mm_struct *mm,
                                  unsigned long start, unsigned long end);
                __mmu_notifier_change_pte(mm, address, pte);
 }
 
-static inline void mmu_notifier_invalidate_range_start(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline void
+mmu_notifier_invalidate_range_start(struct mmu_notifier_range *range)
 {
-       if (mm_has_notifiers(mm))
-               __mmu_notifier_invalidate_range_start(mm, start, end, true);
+       if (mm_has_notifiers(range->mm)) {
+               range->blockable = true;
+               __mmu_notifier_invalidate_range_start(range);
+       }
 }
 
-static inline int mmu_notifier_invalidate_range_start_nonblock(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline int
+mmu_notifier_invalidate_range_start_nonblock(struct mmu_notifier_range *range)
 {
-       if (mm_has_notifiers(mm))
-               return __mmu_notifier_invalidate_range_start(mm, start, end, false);
+       if (mm_has_notifiers(range->mm)) {
+               range->blockable = false;
+               return __mmu_notifier_invalidate_range_start(range);
+       }
        return 0;
 }
 
-static inline void mmu_notifier_invalidate_range_end(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline void
+mmu_notifier_invalidate_range_end(struct mmu_notifier_range *range)
 {
-       if (mm_has_notifiers(mm))
-               __mmu_notifier_invalidate_range_end(mm, start, end, false);
+       if (mm_has_notifiers(range->mm))
+               __mmu_notifier_invalidate_range_end(range, false);
 }
 
-static inline void mmu_notifier_invalidate_range_only_end(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline void
+mmu_notifier_invalidate_range_only_end(struct mmu_notifier_range *range)
 {
-       if (mm_has_notifiers(mm))
-               __mmu_notifier_invalidate_range_end(mm, start, end, true);
+       if (mm_has_notifiers(range->mm))
+               __mmu_notifier_invalidate_range_end(range, true);
 }
 
 static inline void mmu_notifier_invalidate_range(struct mm_struct *mm,
                __mmu_notifier_mm_destroy(mm);
 }
 
+
+static inline void mmu_notifier_range_init(struct mmu_notifier_range *range,
+                                          struct mm_struct *mm,
+                                          unsigned long start,
+                                          unsigned long end)
+{
+       range->mm = mm;
+       range->start = start;
+       range->end = end;
+}
+
 #define ptep_clear_flush_young_notify(__vma, __address, __ptep)                \
 ({                                                                     \
        int __young;                                                    \
 
 #else /* CONFIG_MMU_NOTIFIER */
 
+struct mmu_notifier_range {
+       unsigned long start;
+       unsigned long end;
+};
+
+static inline void _mmu_notifier_range_init(struct mmu_notifier_range *range,
+                                           unsigned long start,
+                                           unsigned long end)
+{
+       range->start = start;
+       range->end = end;
+}
+
+#define mmu_notifier_range_init(range, mm, start, end) \
+       _mmu_notifier_range_init(range, start, end)
+
+
 static inline int mm_has_notifiers(struct mm_struct *mm)
 {
        return 0;
 {
 }
 
-static inline void mmu_notifier_invalidate_range_start(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline void
+mmu_notifier_invalidate_range_start(struct mmu_notifier_range *range)
 {
 }
 
-static inline int mmu_notifier_invalidate_range_start_nonblock(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline int
+mmu_notifier_invalidate_range_start_nonblock(struct mmu_notifier_range *range)
 {
        return 0;
 }
 
-static inline void mmu_notifier_invalidate_range_end(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline
+void mmu_notifier_invalidate_range_end(struct mmu_notifier_range *range)
 {
 }
 
-static inline void mmu_notifier_invalidate_range_only_end(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end)
+static inline void
+mmu_notifier_invalidate_range_only_end(struct mmu_notifier_range *range)
 {
 }
 
 
                .address = addr,
        };
        int err;
-       /* For mmu_notifiers */
-       const unsigned long mmun_start = addr;
-       const unsigned long mmun_end   = addr + PAGE_SIZE;
+       struct mmu_notifier_range range;
        struct mem_cgroup *memcg;
 
+       mmu_notifier_range_init(&range, mm, addr, addr + PAGE_SIZE);
+
        VM_BUG_ON_PAGE(PageTransHuge(old_page), old_page);
 
        err = mem_cgroup_try_charge(new_page, vma->vm_mm, GFP_KERNEL, &memcg,
        /* For try_to_free_swap() and munlock_vma_page() below */
        lock_page(old_page);
 
-       mmu_notifier_invalidate_range_start(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_start(&range);
        err = -EAGAIN;
        if (!page_vma_mapped_walk(&pvmw)) {
                mem_cgroup_cancel_charge(new_page, memcg, false);
 
        err = 0;
  unlock:
-       mmu_notifier_invalidate_range_end(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
        unlock_page(old_page);
        return err;
 }
 
        int i;
        vm_fault_t ret = 0;
        struct page **pages;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
 
        pages = kmalloc_array(HPAGE_PMD_NR, sizeof(struct page *),
                              GFP_KERNEL);
                cond_resched();
        }
 
-       mmun_start = haddr;
-       mmun_end   = haddr + HPAGE_PMD_SIZE;
-       mmu_notifier_invalidate_range_start(vma->vm_mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, vma->vm_mm, haddr,
+                               haddr + HPAGE_PMD_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
 
        vmf->ptl = pmd_lock(vma->vm_mm, vmf->pmd);
        if (unlikely(!pmd_same(*vmf->pmd, orig_pmd)))
         * No need to double call mmu_notifier->invalidate_range() callback as
         * the above pmdp_huge_clear_flush_notify() did already call it.
         */
-       mmu_notifier_invalidate_range_only_end(vma->vm_mm, mmun_start,
-                                               mmun_end);
+       mmu_notifier_invalidate_range_only_end(&range);
 
        ret |= VM_FAULT_WRITE;
        put_page(page);
 
 out_free_pages:
        spin_unlock(vmf->ptl);
-       mmu_notifier_invalidate_range_end(vma->vm_mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
        for (i = 0; i < HPAGE_PMD_NR; i++) {
                memcg = (void *)page_private(pages[i]);
                set_page_private(pages[i], 0);
        struct page *page = NULL, *new_page;
        struct mem_cgroup *memcg;
        unsigned long haddr = vmf->address & HPAGE_PMD_MASK;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
        gfp_t huge_gfp;                 /* for allocation and charge */
        vm_fault_t ret = 0;
 
                                    vma, HPAGE_PMD_NR);
        __SetPageUptodate(new_page);
 
-       mmun_start = haddr;
-       mmun_end   = haddr + HPAGE_PMD_SIZE;
-       mmu_notifier_invalidate_range_start(vma->vm_mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, vma->vm_mm, haddr,
+                               haddr + HPAGE_PMD_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
 
        spin_lock(vmf->ptl);
        if (page)
         * No need to double call mmu_notifier->invalidate_range() callback as
         * the above pmdp_huge_clear_flush_notify() did already call it.
         */
-       mmu_notifier_invalidate_range_only_end(vma->vm_mm, mmun_start,
-                                              mmun_end);
+       mmu_notifier_invalidate_range_only_end(&range);
 out:
        return ret;
 out_unlock:
                unsigned long address)
 {
        spinlock_t *ptl;
-       struct mm_struct *mm = vma->vm_mm;
-       unsigned long haddr = address & HPAGE_PUD_MASK;
+       struct mmu_notifier_range range;
 
-       mmu_notifier_invalidate_range_start(mm, haddr, haddr + HPAGE_PUD_SIZE);
-       ptl = pud_lock(mm, pud);
+       mmu_notifier_range_init(&range, vma->vm_mm, address & HPAGE_PUD_MASK,
+                               (address & HPAGE_PUD_MASK) + HPAGE_PUD_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
+       ptl = pud_lock(vma->vm_mm, pud);
        if (unlikely(!pud_trans_huge(*pud) && !pud_devmap(*pud)))
                goto out;
-       __split_huge_pud_locked(vma, pud, haddr);
+       __split_huge_pud_locked(vma, pud, range.start);
 
 out:
        spin_unlock(ptl);
         * No need to double call mmu_notifier->invalidate_range() callback as
         * the above pudp_huge_clear_flush_notify() did already call it.
         */
-       mmu_notifier_invalidate_range_only_end(mm, haddr, haddr +
-                                              HPAGE_PUD_SIZE);
+       mmu_notifier_invalidate_range_only_end(&range);
 }
 #endif /* CONFIG_HAVE_ARCH_TRANSPARENT_HUGEPAGE_PUD */
 
                unsigned long address, bool freeze, struct page *page)
 {
        spinlock_t *ptl;
-       struct mm_struct *mm = vma->vm_mm;
-       unsigned long haddr = address & HPAGE_PMD_MASK;
+       struct mmu_notifier_range range;
 
-       mmu_notifier_invalidate_range_start(mm, haddr, haddr + HPAGE_PMD_SIZE);
-       ptl = pmd_lock(mm, pmd);
+       mmu_notifier_range_init(&range, vma->vm_mm, address & HPAGE_PMD_MASK,
+                               (address & HPAGE_PMD_MASK) + HPAGE_PMD_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
+       ptl = pmd_lock(vma->vm_mm, pmd);
 
        /*
         * If caller asks to setup a migration entries, we need a page to check
                        clear_page_mlock(page);
        } else if (!(pmd_devmap(*pmd) || is_pmd_migration_entry(*pmd)))
                goto out;
-       __split_huge_pmd_locked(vma, pmd, haddr, freeze);
+       __split_huge_pmd_locked(vma, pmd, range.start, freeze);
 out:
        spin_unlock(ptl);
        /*
         *     any further changes to individual pte will notify. So no need
         *     to call mmu_notifier->invalidate_range()
         */
-       mmu_notifier_invalidate_range_only_end(mm, haddr, haddr +
-                                              HPAGE_PMD_SIZE);
+       mmu_notifier_invalidate_range_only_end(&range);
 }
 
 void split_huge_pmd_address(struct vm_area_struct *vma, unsigned long address,
 
        int cow;
        struct hstate *h = hstate_vma(vma);
        unsigned long sz = huge_page_size(h);
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
        int ret = 0;
 
        cow = (vma->vm_flags & (VM_SHARED | VM_MAYWRITE)) == VM_MAYWRITE;
 
-       mmun_start = vma->vm_start;
-       mmun_end = vma->vm_end;
-       if (cow)
-               mmu_notifier_invalidate_range_start(src, mmun_start, mmun_end);
+       if (cow) {
+               mmu_notifier_range_init(&range, src, vma->vm_start,
+                                       vma->vm_end);
+               mmu_notifier_invalidate_range_start(&range);
+       }
 
        for (addr = vma->vm_start; addr < vma->vm_end; addr += sz) {
                spinlock_t *src_ptl, *dst_ptl;
        }
 
        if (cow)
-               mmu_notifier_invalidate_range_end(src, mmun_start, mmun_end);
+               mmu_notifier_invalidate_range_end(&range);
 
        return ret;
 }
        struct page *page;
        struct hstate *h = hstate_vma(vma);
        unsigned long sz = huge_page_size(h);
-       unsigned long mmun_start = start;       /* For mmu_notifiers */
-       unsigned long mmun_end   = end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
 
        WARN_ON(!is_vm_hugetlb_page(vma));
        BUG_ON(start & ~huge_page_mask(h));
        /*
         * If sharing possible, alert mmu notifiers of worst case.
         */
-       adjust_range_if_pmd_sharing_possible(vma, &mmun_start, &mmun_end);
-       mmu_notifier_invalidate_range_start(mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, mm, start, end);
+       adjust_range_if_pmd_sharing_possible(vma, &range.start, &range.end);
+       mmu_notifier_invalidate_range_start(&range);
        address = start;
        for (; address < end; address += sz) {
                ptep = huge_pte_offset(mm, address, sz);
                if (ref_page)
                        break;
        }
-       mmu_notifier_invalidate_range_end(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
        tlb_end_vma(tlb, vma);
 }
 
        struct page *old_page, *new_page;
        int outside_reserve = 0;
        vm_fault_t ret = 0;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
        unsigned long haddr = address & huge_page_mask(h);
+       struct mmu_notifier_range range;
 
        pte = huge_ptep_get(ptep);
        old_page = pte_page(pte);
        __SetPageUptodate(new_page);
        set_page_huge_active(new_page);
 
-       mmun_start = haddr;
-       mmun_end = mmun_start + huge_page_size(h);
-       mmu_notifier_invalidate_range_start(mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, mm, haddr, haddr + huge_page_size(h));
+       mmu_notifier_invalidate_range_start(&range);
 
        /*
         * Retake the page table lock to check for racing updates
 
                /* Break COW */
                huge_ptep_clear_flush(vma, haddr, ptep);
-               mmu_notifier_invalidate_range(mm, mmun_start, mmun_end);
+               mmu_notifier_invalidate_range(mm, range.start, range.end);
                set_huge_pte_at(mm, haddr, ptep,
                                make_huge_pte(vma, new_page, 1));
                page_remove_rmap(old_page, true);
                new_page = old_page;
        }
        spin_unlock(ptl);
-       mmu_notifier_invalidate_range_end(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
 out_release_all:
        restore_reserve_on_error(h, vma, haddr, new_page);
        put_page(new_page);
        pte_t pte;
        struct hstate *h = hstate_vma(vma);
        unsigned long pages = 0;
-       unsigned long f_start = start;
-       unsigned long f_end = end;
        bool shared_pmd = false;
+       struct mmu_notifier_range range;
 
        /*
         * In the case of shared PMDs, the area to flush could be beyond
-        * start/end.  Set f_start/f_end to cover the maximum possible
+        * start/end.  Set range.start/range.end to cover the maximum possible
         * range if PMD sharing is possible.
         */
-       adjust_range_if_pmd_sharing_possible(vma, &f_start, &f_end);
+       mmu_notifier_range_init(&range, mm, start, end);
+       adjust_range_if_pmd_sharing_possible(vma, &range.start, &range.end);
 
        BUG_ON(address >= end);
-       flush_cache_range(vma, f_start, f_end);
+       flush_cache_range(vma, range.start, range.end);
 
-       mmu_notifier_invalidate_range_start(mm, f_start, f_end);
+       mmu_notifier_invalidate_range_start(&range);
        i_mmap_lock_write(vma->vm_file->f_mapping);
        for (; address < end; address += huge_page_size(h)) {
                spinlock_t *ptl;
         * did unshare a page of pmds, flush the range corresponding to the pud.
         */
        if (shared_pmd)
-               flush_hugetlb_tlb_range(vma, f_start, f_end);
+               flush_hugetlb_tlb_range(vma, range.start, range.end);
        else
                flush_hugetlb_tlb_range(vma, start, end);
        /*
         * See Documentation/vm/mmu_notifier.rst
         */
        i_mmap_unlock_write(vma->vm_file->f_mapping);
-       mmu_notifier_invalidate_range_end(mm, f_start, f_end);
+       mmu_notifier_invalidate_range_end(&range);
 
        return pages << h->order;
 }
 
        int isolated = 0, result = 0;
        struct mem_cgroup *memcg;
        struct vm_area_struct *vma;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
        gfp_t gfp;
 
        VM_BUG_ON(address & ~HPAGE_PMD_MASK);
        pte = pte_offset_map(pmd, address);
        pte_ptl = pte_lockptr(mm, pmd);
 
-       mmun_start = address;
-       mmun_end   = address + HPAGE_PMD_SIZE;
-       mmu_notifier_invalidate_range_start(mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, mm, address, address + HPAGE_PMD_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
        pmd_ptl = pmd_lock(mm, pmd); /* probably unnecessary */
        /*
         * After this gup_fast can't run anymore. This also removes
         */
        _pmd = pmdp_collapse_flush(vma, address, pmd);
        spin_unlock(pmd_ptl);
-       mmu_notifier_invalidate_range_end(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
 
        spin_lock(pte_ptl);
        isolated = __collapse_huge_page_isolate(vma, address, pte);
 
        };
        int swapped;
        int err = -EFAULT;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
 
        pvmw.address = page_address_in_vma(page, vma);
        if (pvmw.address == -EFAULT)
 
        BUG_ON(PageTransCompound(page));
 
-       mmun_start = pvmw.address;
-       mmun_end   = pvmw.address + PAGE_SIZE;
-       mmu_notifier_invalidate_range_start(mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, mm, pvmw.address,
+                               pvmw.address + PAGE_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
 
        if (!page_vma_mapped_walk(&pvmw))
                goto out_mn;
 out_unlock:
        page_vma_mapped_walk_done(&pvmw);
 out_mn:
-       mmu_notifier_invalidate_range_end(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
 out:
        return err;
 }
        spinlock_t *ptl;
        unsigned long addr;
        int err = -EFAULT;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
 
        addr = page_address_in_vma(page, vma);
        if (addr == -EFAULT)
        if (!pmd)
                goto out;
 
-       mmun_start = addr;
-       mmun_end   = addr + PAGE_SIZE;
-       mmu_notifier_invalidate_range_start(mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, mm, addr, addr + PAGE_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
 
        ptep = pte_offset_map_lock(mm, pmd, addr, &ptl);
        if (!pte_same(*ptep, orig_pte)) {
        pte_unmap_unlock(ptep, ptl);
        err = 0;
 out_mn:
-       mmu_notifier_invalidate_range_end(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
 out:
        return err;
 }
 
 static int madvise_free_single_vma(struct vm_area_struct *vma,
                        unsigned long start_addr, unsigned long end_addr)
 {
-       unsigned long start, end;
        struct mm_struct *mm = vma->vm_mm;
+       struct mmu_notifier_range range;
        struct mmu_gather tlb;
 
        /* MADV_FREE works for only anon vma at the moment */
        if (!vma_is_anonymous(vma))
                return -EINVAL;
 
-       start = max(vma->vm_start, start_addr);
-       if (start >= vma->vm_end)
+       range.start = max(vma->vm_start, start_addr);
+       if (range.start >= vma->vm_end)
                return -EINVAL;
-       end = min(vma->vm_end, end_addr);
-       if (end <= vma->vm_start)
+       range.end = min(vma->vm_end, end_addr);
+       if (range.end <= vma->vm_start)
                return -EINVAL;
+       mmu_notifier_range_init(&range, mm, range.start, range.end);
 
        lru_add_drain();
-       tlb_gather_mmu(&tlb, mm, start, end);
+       tlb_gather_mmu(&tlb, mm, range.start, range.end);
        update_hiwater_rss(mm);
 
-       mmu_notifier_invalidate_range_start(mm, start, end);
-       madvise_free_page_range(&tlb, vma, start, end);
-       mmu_notifier_invalidate_range_end(mm, start, end);
-       tlb_finish_mmu(&tlb, start, end);
+       mmu_notifier_invalidate_range_start(&range);
+       madvise_free_page_range(&tlb, vma, range.start, range.end);
+       mmu_notifier_invalidate_range_end(&range);
+       tlb_finish_mmu(&tlb, range.start, range.end);
 
        return 0;
 }
 
        unsigned long next;
        unsigned long addr = vma->vm_start;
        unsigned long end = vma->vm_end;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
+       struct mmu_notifier_range range;
        bool is_cow;
        int ret;
 
         * is_cow_mapping() returns true.
         */
        is_cow = is_cow_mapping(vma->vm_flags);
-       mmun_start = addr;
-       mmun_end   = end;
-       if (is_cow)
-               mmu_notifier_invalidate_range_start(src_mm, mmun_start,
-                                                   mmun_end);
+
+       if (is_cow) {
+               mmu_notifier_range_init(&range, src_mm, addr, end);
+               mmu_notifier_invalidate_range_start(&range);
+       }
 
        ret = 0;
        dst_pgd = pgd_offset(dst_mm, addr);
        } while (dst_pgd++, src_pgd++, addr = next, addr != end);
 
        if (is_cow)
-               mmu_notifier_invalidate_range_end(src_mm, mmun_start, mmun_end);
+               mmu_notifier_invalidate_range_end(&range);
        return ret;
 }
 
                struct vm_area_struct *vma, unsigned long start_addr,
                unsigned long end_addr)
 {
-       struct mm_struct *mm = vma->vm_mm;
+       struct mmu_notifier_range range;
 
-       mmu_notifier_invalidate_range_start(mm, start_addr, end_addr);
+       mmu_notifier_range_init(&range, vma->vm_mm, start_addr, end_addr);
+       mmu_notifier_invalidate_range_start(&range);
        for ( ; vma && vma->vm_start < end_addr; vma = vma->vm_next)
                unmap_single_vma(tlb, vma, start_addr, end_addr, NULL);
-       mmu_notifier_invalidate_range_end(mm, start_addr, end_addr);
+       mmu_notifier_invalidate_range_end(&range);
 }
 
 /**
 void zap_page_range(struct vm_area_struct *vma, unsigned long start,
                unsigned long size)
 {
-       struct mm_struct *mm = vma->vm_mm;
+       struct mmu_notifier_range range;
        struct mmu_gather tlb;
-       unsigned long end = start + size;
 
        lru_add_drain();
-       tlb_gather_mmu(&tlb, mm, start, end);
-       update_hiwater_rss(mm);
-       mmu_notifier_invalidate_range_start(mm, start, end);
-       for ( ; vma && vma->vm_start < end; vma = vma->vm_next)
-               unmap_single_vma(&tlb, vma, start, end, NULL);
-       mmu_notifier_invalidate_range_end(mm, start, end);
-       tlb_finish_mmu(&tlb, start, end);
+       mmu_notifier_range_init(&range, vma->vm_mm, start, start + size);
+       tlb_gather_mmu(&tlb, vma->vm_mm, start, range.end);
+       update_hiwater_rss(vma->vm_mm);
+       mmu_notifier_invalidate_range_start(&range);
+       for ( ; vma && vma->vm_start < range.end; vma = vma->vm_next)
+               unmap_single_vma(&tlb, vma, start, range.end, NULL);
+       mmu_notifier_invalidate_range_end(&range);
+       tlb_finish_mmu(&tlb, start, range.end);
 }
 
 /**
 static void zap_page_range_single(struct vm_area_struct *vma, unsigned long address,
                unsigned long size, struct zap_details *details)
 {
-       struct mm_struct *mm = vma->vm_mm;
+       struct mmu_notifier_range range;
        struct mmu_gather tlb;
-       unsigned long end = address + size;
 
        lru_add_drain();
-       tlb_gather_mmu(&tlb, mm, address, end);
-       update_hiwater_rss(mm);
-       mmu_notifier_invalidate_range_start(mm, address, end);
-       unmap_single_vma(&tlb, vma, address, end, details);
-       mmu_notifier_invalidate_range_end(mm, address, end);
-       tlb_finish_mmu(&tlb, address, end);
+       mmu_notifier_range_init(&range, vma->vm_mm, address, address + size);
+       tlb_gather_mmu(&tlb, vma->vm_mm, address, range.end);
+       update_hiwater_rss(vma->vm_mm);
+       mmu_notifier_invalidate_range_start(&range);
+       unmap_single_vma(&tlb, vma, address, range.end, details);
+       mmu_notifier_invalidate_range_end(&range);
+       tlb_finish_mmu(&tlb, address, range.end);
 }
 
 /**
        struct page *new_page = NULL;
        pte_t entry;
        int page_copied = 0;
-       const unsigned long mmun_start = vmf->address & PAGE_MASK;
-       const unsigned long mmun_end = mmun_start + PAGE_SIZE;
        struct mem_cgroup *memcg;
+       struct mmu_notifier_range range;
 
        if (unlikely(anon_vma_prepare(vma)))
                goto oom;
 
        __SetPageUptodate(new_page);
 
-       mmu_notifier_invalidate_range_start(mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, mm, vmf->address & PAGE_MASK,
+                               (vmf->address & PAGE_MASK) + PAGE_SIZE);
+       mmu_notifier_invalidate_range_start(&range);
 
        /*
         * Re-check the pte - we dropped the lock
         * No need to double call mmu_notifier->invalidate_range() callback as
         * the above ptep_clear_flush_notify() did already call it.
         */
-       mmu_notifier_invalidate_range_only_end(mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_only_end(&range);
        if (old_page) {
                /*
                 * Don't let another task, with possibly unlocked vma,
 #endif /* __PAGETABLE_PMD_FOLDED */
 
 static int __follow_pte_pmd(struct mm_struct *mm, unsigned long address,
-                           unsigned long *start, unsigned long *end,
+                           struct mmu_notifier_range *range,
                            pte_t **ptepp, pmd_t **pmdpp, spinlock_t **ptlp)
 {
        pgd_t *pgd;
                if (!pmdpp)
                        goto out;
 
-               if (start && end) {
-                       *start = address & PMD_MASK;
-                       *end = *start + PMD_SIZE;
-                       mmu_notifier_invalidate_range_start(mm, *start, *end);
+               if (range) {
+                       mmu_notifier_range_init(range, mm, address & PMD_MASK,
+                                            (address & PMD_MASK) + PMD_SIZE);
+                       mmu_notifier_invalidate_range_start(range);
                }
                *ptlp = pmd_lock(mm, pmd);
                if (pmd_huge(*pmd)) {
                        return 0;
                }
                spin_unlock(*ptlp);
-               if (start && end)
-                       mmu_notifier_invalidate_range_end(mm, *start, *end);
+               if (range)
+                       mmu_notifier_invalidate_range_end(range);
        }
 
        if (pmd_none(*pmd) || unlikely(pmd_bad(*pmd)))
                goto out;
 
-       if (start && end) {
-               *start = address & PAGE_MASK;
-               *end = *start + PAGE_SIZE;
-               mmu_notifier_invalidate_range_start(mm, *start, *end);
+       if (range) {
+               range->start = address & PAGE_MASK;
+               range->end = range->start + PAGE_SIZE;
+               mmu_notifier_invalidate_range_start(range);
        }
        ptep = pte_offset_map_lock(mm, pmd, address, ptlp);
        if (!pte_present(*ptep))
        return 0;
 unlock:
        pte_unmap_unlock(ptep, *ptlp);
-       if (start && end)
-               mmu_notifier_invalidate_range_end(mm, *start, *end);
+       if (range)
+               mmu_notifier_invalidate_range_end(range);
 out:
        return -EINVAL;
 }
 
        /* (void) is needed to make gcc happy */
        (void) __cond_lock(*ptlp,
-                          !(res = __follow_pte_pmd(mm, address, NULL, NULL,
+                          !(res = __follow_pte_pmd(mm, address, NULL,
                                                    ptepp, NULL, ptlp)));
        return res;
 }
 
 int follow_pte_pmd(struct mm_struct *mm, unsigned long address,
-                            unsigned long *start, unsigned long *end,
-                            pte_t **ptepp, pmd_t **pmdpp, spinlock_t **ptlp)
+                  struct mmu_notifier_range *range,
+                  pte_t **ptepp, pmd_t **pmdpp, spinlock_t **ptlp)
 {
        int res;
 
        /* (void) is needed to make gcc happy */
        (void) __cond_lock(*ptlp,
-                          !(res = __follow_pte_pmd(mm, address, start, end,
+                          !(res = __follow_pte_pmd(mm, address, range,
                                                    ptepp, pmdpp, ptlp)));
        return res;
 }
 
  */
 static void migrate_vma_collect(struct migrate_vma *migrate)
 {
+       struct mmu_notifier_range range;
        struct mm_walk mm_walk;
 
        mm_walk.pmd_entry = migrate_vma_collect_pmd;
        mm_walk.mm = migrate->vma->vm_mm;
        mm_walk.private = migrate;
 
-       mmu_notifier_invalidate_range_start(mm_walk.mm,
-                                           migrate->start,
-                                           migrate->end);
+       mmu_notifier_range_init(&range, mm_walk.mm, migrate->start,
+                               migrate->end);
+       mmu_notifier_invalidate_range_start(&range);
        walk_page_range(migrate->start, migrate->end, &mm_walk);
-       mmu_notifier_invalidate_range_end(mm_walk.mm,
-                                         migrate->start,
-                                         migrate->end);
+       mmu_notifier_invalidate_range_end(&range);
 
        migrate->end = migrate->start + (migrate->npages << PAGE_SHIFT);
 }
 {
        const unsigned long npages = migrate->npages;
        const unsigned long start = migrate->start;
-       struct vm_area_struct *vma = migrate->vma;
-       struct mm_struct *mm = vma->vm_mm;
-       unsigned long addr, i, mmu_start;
+       struct mmu_notifier_range range;
+       unsigned long addr, i;
        bool notified = false;
 
        for (i = 0, addr = start; i < npages; addr += PAGE_SIZE, i++) {
                                continue;
                        }
                        if (!notified) {
-                               mmu_start = addr;
                                notified = true;
-                               mmu_notifier_invalidate_range_start(mm,
-                                                               mmu_start,
-                                                               migrate->end);
+
+                               mmu_notifier_range_init(&range,
+                                                       migrate->vma->vm_mm,
+                                                       addr, migrate->end);
+                               mmu_notifier_invalidate_range_start(&range);
                        }
                        migrate_vma_insert_page(migrate, addr, newpage,
                                                &migrate->src[i],
         * did already call it.
         */
        if (notified)
-               mmu_notifier_invalidate_range_only_end(mm, mmu_start,
-                                                      migrate->end);
+               mmu_notifier_invalidate_range_only_end(&range);
 }
 
 /*
 
        srcu_read_unlock(&srcu, id);
 }
 
-int __mmu_notifier_invalidate_range_start(struct mm_struct *mm,
-                                 unsigned long start, unsigned long end,
-                                 bool blockable)
+int __mmu_notifier_invalidate_range_start(struct mmu_notifier_range *range)
 {
-       struct mmu_notifier_range _range, *range = &_range;
        struct mmu_notifier *mn;
        int ret = 0;
        int id;
 
-       range->blockable = blockable;
-       range->start = start;
-       range->end = end;
-       range->mm = mm;
-
        id = srcu_read_lock(&srcu);
-       hlist_for_each_entry_rcu(mn, &mm->mmu_notifier_mm->list, hlist) {
+       hlist_for_each_entry_rcu(mn, &range->mm->mmu_notifier_mm->list, hlist) {
                if (mn->ops->invalidate_range_start) {
                        int _ret = mn->ops->invalidate_range_start(mn, range);
                        if (_ret) {
                                pr_info("%pS callback failed with %d in %sblockable context.\n",
-                                               mn->ops->invalidate_range_start, _ret,
-                                               !blockable ? "non-" : "");
+                                       mn->ops->invalidate_range_start, _ret,
+                                       !range->blockable ? "non-" : "");
                                ret = _ret;
                        }
                }
 }
 EXPORT_SYMBOL_GPL(__mmu_notifier_invalidate_range_start);
 
-void __mmu_notifier_invalidate_range_end(struct mm_struct *mm,
-                                        unsigned long start,
-                                        unsigned long end,
+void __mmu_notifier_invalidate_range_end(struct mmu_notifier_range *range,
                                         bool only_end)
 {
-       struct mmu_notifier_range _range, *range = &_range;
        struct mmu_notifier *mn;
        int id;
 
-       /*
-        * The end call back will never be call if the start refused to go
-        * through because of blockable was false so here assume that we
-        * can block.
-        */
-       range->blockable = true;
-       range->start = start;
-       range->end = end;
-       range->mm = mm;
-
        id = srcu_read_lock(&srcu);
-       hlist_for_each_entry_rcu(mn, &mm->mmu_notifier_mm->list, hlist) {
+       hlist_for_each_entry_rcu(mn, &range->mm->mmu_notifier_mm->list, hlist) {
                /*
                 * Call invalidate_range here too to avoid the need for the
                 * subsystem of having to register an invalidate_range_end
                 * already happen under page table lock.
                 */
                if (!only_end && mn->ops->invalidate_range)
-                       mn->ops->invalidate_range(mn, mm, start, end);
+                       mn->ops->invalidate_range(mn, range->mm,
+                                                 range->start,
+                                                 range->end);
                if (mn->ops->invalidate_range_end)
                        mn->ops->invalidate_range_end(mn, range);
        }
 
                pgprot_t newprot, int dirty_accountable, int prot_numa)
 {
        pmd_t *pmd;
-       struct mm_struct *mm = vma->vm_mm;
        unsigned long next;
        unsigned long pages = 0;
        unsigned long nr_huge_updates = 0;
-       unsigned long mni_start = 0;
+       struct mmu_notifier_range range;
+
+       range.start = 0;
 
        pmd = pmd_offset(pud, addr);
        do {
                        goto next;
 
                /* invoke the mmu notifier if the pmd is populated */
-               if (!mni_start) {
-                       mni_start = addr;
-                       mmu_notifier_invalidate_range_start(mm, mni_start, end);
+               if (!range.start) {
+                       mmu_notifier_range_init(&range, vma->vm_mm, addr, end);
+                       mmu_notifier_invalidate_range_start(&range);
                }
 
                if (is_swap_pmd(*pmd) || pmd_trans_huge(*pmd) || pmd_devmap(*pmd)) {
                cond_resched();
        } while (pmd++, addr = next, addr != end);
 
-       if (mni_start)
-               mmu_notifier_invalidate_range_end(mm, mni_start, end);
+       if (range.start)
+               mmu_notifier_invalidate_range_end(&range);
 
        if (nr_huge_updates)
                count_vm_numa_events(NUMA_HUGE_PTE_UPDATES, nr_huge_updates);
 
                bool need_rmap_locks)
 {
        unsigned long extent, next, old_end;
+       struct mmu_notifier_range range;
        pmd_t *old_pmd, *new_pmd;
-       unsigned long mmun_start;       /* For mmu_notifiers */
-       unsigned long mmun_end;         /* For mmu_notifiers */
 
        old_end = old_addr + len;
        flush_cache_range(vma, old_addr, old_end);
 
-       mmun_start = old_addr;
-       mmun_end   = old_end;
-       mmu_notifier_invalidate_range_start(vma->vm_mm, mmun_start, mmun_end);
+       mmu_notifier_range_init(&range, vma->vm_mm, old_addr, old_end);
+       mmu_notifier_invalidate_range_start(&range);
 
        for (; old_addr < old_end; old_addr += extent, new_addr += extent) {
                cond_resched();
                          new_pmd, new_addr, need_rmap_locks);
        }
 
-       mmu_notifier_invalidate_range_end(vma->vm_mm, mmun_start, mmun_end);
+       mmu_notifier_invalidate_range_end(&range);
 
        return len + old_addr - old_end;        /* how much done */
 }
 
                 * count elevated without a good reason.
                 */
                if (vma_is_anonymous(vma) || !(vma->vm_flags & VM_SHARED)) {
-                       const unsigned long start = vma->vm_start;
-                       const unsigned long end = vma->vm_end;
+                       struct mmu_notifier_range range;
                        struct mmu_gather tlb;
 
-                       tlb_gather_mmu(&tlb, mm, start, end);
-                       if (mmu_notifier_invalidate_range_start_nonblock(mm, start, end)) {
-                               tlb_finish_mmu(&tlb, start, end);
+                       mmu_notifier_range_init(&range, mm, vma->vm_start,
+                                               vma->vm_end);
+                       tlb_gather_mmu(&tlb, mm, range.start, range.end);
+                       if (mmu_notifier_invalidate_range_start_nonblock(&range)) {
+                               tlb_finish_mmu(&tlb, range.start, range.end);
                                ret = false;
                                continue;
                        }
-                       unmap_page_range(&tlb, vma, start, end, NULL);
-                       mmu_notifier_invalidate_range_end(mm, start, end);
-                       tlb_finish_mmu(&tlb, start, end);
+                       unmap_page_range(&tlb, vma, range.start, range.end, NULL);
+                       mmu_notifier_invalidate_range_end(&range);
+                       tlb_finish_mmu(&tlb, range.start, range.end);
                }
        }
 
 
                .address = address,
                .flags = PVMW_SYNC,
        };
-       unsigned long start = address, end;
+       struct mmu_notifier_range range;
        int *cleaned = arg;
 
        /*
         * We have to assume the worse case ie pmd for invalidation. Note that
         * the page can not be free from this function.
         */
-       end = min(vma->vm_end, start + (PAGE_SIZE << compound_order(page)));
-       mmu_notifier_invalidate_range_start(vma->vm_mm, start, end);
+       mmu_notifier_range_init(&range, vma->vm_mm, address,
+                               min(vma->vm_end, address +
+                                   (PAGE_SIZE << compound_order(page))));
+       mmu_notifier_invalidate_range_start(&range);
 
        while (page_vma_mapped_walk(&pvmw)) {
                unsigned long cstart;
                        (*cleaned)++;
        }
 
-       mmu_notifier_invalidate_range_end(vma->vm_mm, start, end);
+       mmu_notifier_invalidate_range_end(&range);
 
        return true;
 }
        pte_t pteval;
        struct page *subpage;
        bool ret = true;
-       unsigned long start = address, end;
+       struct mmu_notifier_range range;
        enum ttu_flags flags = (enum ttu_flags)arg;
 
        /* munlock has nothing to gain from examining un-locked vmas */
         * Note that the page can not be free in this function as call of
         * try_to_unmap() must hold a reference on the page.
         */
-       end = min(vma->vm_end, start + (PAGE_SIZE << compound_order(page)));
+       mmu_notifier_range_init(&range, vma->vm_mm, vma->vm_start,
+                               min(vma->vm_end, vma->vm_start +
+                                   (PAGE_SIZE << compound_order(page))));
        if (PageHuge(page)) {
                /*
                 * If sharing is possible, start and end will be adjusted
                 * accordingly.
                 */
-               adjust_range_if_pmd_sharing_possible(vma, &start, &end);
+               adjust_range_if_pmd_sharing_possible(vma, &range.start,
+                                                    &range.end);
        }
-       mmu_notifier_invalidate_range_start(vma->vm_mm, start, end);
+       mmu_notifier_invalidate_range_start(&range);
 
        while (page_vma_mapped_walk(&pvmw)) {
 #ifdef CONFIG_ARCH_ENABLE_THP_MIGRATION
                                 * we must flush them all.  start/end were
                                 * already adjusted above to cover this range.
                                 */
-                               flush_cache_range(vma, start, end);
-                               flush_tlb_range(vma, start, end);
-                               mmu_notifier_invalidate_range(mm, start, end);
+                               flush_cache_range(vma, range.start, range.end);
+                               flush_tlb_range(vma, range.start, range.end);
+                               mmu_notifier_invalidate_range(mm, range.start,
+                                                             range.end);
 
                                /*
                                 * The ref count of the PMD page was dropped
                put_page(page);
        }
 
-       mmu_notifier_invalidate_range_end(vma->vm_mm, start, end);
+       mmu_notifier_invalidate_range_end(&range);
 
        return ret;
 }