/proc/vmstat/nr_foll_pin_requested
 
 Those are both going to show zero, unless CONFIG_DEBUG_VM is set. This is
-because there is a noticeable performance drop in put_user_page(), when they
+because there is a noticeable performance drop in unpin_user_page(), when they
 are activated.
 
 References
 
 
 free_exit:
        /* free the references taken */
-       put_user_pages(mem->hpages, pinned);
+       unpin_user_pages(mem->hpages, pinned);
 
        vfree(mem->hpas);
        kfree(mem);
                if (mem->hpas[i] & MM_IOMMU_TABLE_GROUP_PAGE_DIRTY)
                        SetPageDirty(page);
 
-               put_user_page(page);
+               unpin_user_page(page);
 
                mem->hpas[i] = 0;
        }
 
                kfree(vsg->desc_pages);
                /* fall through */
        case dr_via_pages_locked:
-               put_user_pages_dirty_lock(vsg->pages, vsg->num_pages,
-                                         (vsg->direction == DMA_FROM_DEVICE));
+               unpin_user_pages_dirty_lock(vsg->pages, vsg->num_pages,
+                                          (vsg->direction == DMA_FROM_DEVICE));
                /* fall through */
        case dr_via_pages_alloc:
                vfree(vsg->pages);
 
 
        for_each_sg_page(umem->sg_head.sgl, &sg_iter, umem->sg_nents, 0) {
                page = sg_page_iter_page(&sg_iter);
-               put_user_pages_dirty_lock(&page, 1, umem->writable && dirty);
+               unpin_user_pages_dirty_lock(&page, 1, umem->writable && dirty);
        }
 
        sg_free_table(&umem->sg_head);
 
 void hfi1_release_user_pages(struct mm_struct *mm, struct page **p,
                             size_t npages, bool dirty)
 {
-       put_user_pages_dirty_lock(p, npages, dirty);
+       unpin_user_pages_dirty_lock(p, npages, dirty);
 
        if (mm) { /* during close after signal, mm can be NULL */
                atomic64_sub(npages, &mm->pinned_vm);
 
 
        ret = pci_map_sg(dev->pdev, &db_tab->page[i].mem, 1, PCI_DMA_TODEVICE);
        if (ret < 0) {
-               put_user_page(pages[0]);
+               unpin_user_page(pages[0]);
                goto out;
        }
 
                                 mthca_uarc_virt(dev, uar, i));
        if (ret) {
                pci_unmap_sg(dev->pdev, &db_tab->page[i].mem, 1, PCI_DMA_TODEVICE);
-               put_user_page(sg_page(&db_tab->page[i].mem));
+               unpin_user_page(sg_page(&db_tab->page[i].mem));
                goto out;
        }
 
                if (db_tab->page[i].uvirt) {
                        mthca_UNMAP_ICM(dev, mthca_uarc_virt(dev, uar, i), 1);
                        pci_unmap_sg(dev->pdev, &db_tab->page[i].mem, 1, PCI_DMA_TODEVICE);
-                       put_user_page(sg_page(&db_tab->page[i].mem));
+                       unpin_user_page(sg_page(&db_tab->page[i].mem));
                }
        }
 
 
 static void __qib_release_user_pages(struct page **p, size_t num_pages,
                                     int dirty)
 {
-       put_user_pages_dirty_lock(p, num_pages, dirty);
+       unpin_user_pages_dirty_lock(p, num_pages, dirty);
 }
 
 /**
 
                 * the caller can ignore this page.
                 */
                if (put) {
-                       put_user_page(page);
+                       unpin_user_page(page);
                } else {
                        /* coalesce case */
                        kunmap(page);
                        kunmap(pkt->addr[i].page);
 
                if (pkt->addr[i].put_page)
-                       put_user_page(pkt->addr[i].page);
+                       unpin_user_page(pkt->addr[i].page);
                else
                        __free_page(pkt->addr[i].page);
        } else if (pkt->addr[i].kvaddr) {
        /* if error, return all pages not managed by pkt */
 free_pages:
        while (i < j)
-               put_user_page(pages[i++]);
+               unpin_user_page(pages[i++]);
 
 done:
        return ret;
 
                for_each_sg(chunk->page_list, sg, chunk->nents, i) {
                        page = sg_page(sg);
                        pa = sg_phys(sg);
-                       put_user_pages_dirty_lock(&page, 1, dirty);
+                       unpin_user_pages_dirty_lock(&page, 1, dirty);
                        usnic_dbg("pa: %pa\n", &pa);
                }
                kfree(chunk);
 
 static void siw_free_plist(struct siw_page_chunk *chunk, int num_pages,
                           bool dirty)
 {
-       put_user_pages_dirty_lock(chunk->plist, num_pages, dirty);
+       unpin_user_pages_dirty_lock(chunk->plist, num_pages, dirty);
 }
 
 void siw_umem_release(struct siw_umem *umem, bool dirty)
 
        BUG_ON(dma->sglen);
 
        if (dma->pages) {
-               put_user_pages_dirty_lock(dma->pages, dma->nr_pages,
-                                         dma->direction == DMA_FROM_DEVICE);
+               unpin_user_pages_dirty_lock(dma->pages, dma->nr_pages,
+                                           dma->direction == DMA_FROM_DEVICE);
                kfree(dma->pages);
                dma->pages = NULL;
        }
 
 
        *consumed_size = pipe->command_buffer->rw_params.consumed_size;
 
-       put_user_pages_dirty_lock(pipe->pages, pages_count,
-                                 !is_write && *consumed_size > 0);
+       unpin_user_pages_dirty_lock(pipe->pages, pages_count,
+                                   !is_write && *consumed_size > 0);
 
        mutex_unlock(&pipe->lock);
        return 0;
 
        if (!is_invalid_reserved_pfn(pfn)) {
                struct page *page = pfn_to_page(pfn);
 
-               put_user_pages_dirty_lock(&page, 1, prot & IOMMU_WRITE);
+               unpin_user_pages_dirty_lock(&page, 1, prot & IOMMU_WRITE);
                return 1;
        }
        return 0;
 
                struct io_mapped_ubuf *imu = &ctx->user_bufs[i];
 
                for (j = 0; j < imu->nr_bvecs; j++)
-                       put_user_page(imu->bvec[j].bv_page);
+                       unpin_user_page(imu->bvec[j].bv_page);
 
                if (ctx->account_mem)
                        io_unaccount_mem(ctx->user, imu->nr_bvecs);
                         * release any pages we did get
                         */
                        if (pret > 0)
-                               put_user_pages(pages, pret);
+                               unpin_user_pages(pages, pret);
                        if (ctx->account_mem)
                                io_unaccount_mem(ctx->user, nr_pages);
                        kvfree(imu->bvec);
 
 }
 
 /**
- * put_user_page() - release a gup-pinned page
+ * unpin_user_page() - release a gup-pinned page
  * @page:            pointer to page to be released
  *
  * Pages that were pinned via pin_user_pages*() must be released via either
- * put_user_page(), or one of the put_user_pages*() routines. This is so that
- * eventually such pages can be separately tracked and uniquely handled. In
+ * unpin_user_page(), or one of the unpin_user_pages*() routines. This is so
+ * that eventually such pages can be separately tracked and uniquely handled. In
  * particular, interactions with RDMA and filesystems need special handling.
  *
- * put_user_page() and put_page() are not interchangeable, despite this early
- * implementation that makes them look the same. put_user_page() calls must
+ * unpin_user_page() and put_page() are not interchangeable, despite this early
+ * implementation that makes them look the same. unpin_user_page() calls must
  * be perfectly matched up with pin*() calls.
  */
-static inline void put_user_page(struct page *page)
+static inline void unpin_user_page(struct page *page)
 {
        put_page(page);
 }
 
-void put_user_pages_dirty_lock(struct page **pages, unsigned long npages,
-                              bool make_dirty);
+void unpin_user_pages_dirty_lock(struct page **pages, unsigned long npages,
+                                bool make_dirty);
 
-void put_user_pages(struct page **pages, unsigned long npages);
+void unpin_user_pages(struct page **pages, unsigned long npages);
 
 #if defined(CONFIG_SPARSEMEM) && !defined(CONFIG_SPARSEMEM_VMEMMAP)
 #define SECTION_IN_PAGE_FLAGS
 #define FOLL_ANON      0x8000  /* don't do file mappings */
 #define FOLL_LONGTERM  0x10000 /* mapping lifetime is indefinite: see below */
 #define FOLL_SPLIT_PMD 0x20000 /* split huge pmd before returning */
-#define FOLL_PIN       0x40000 /* pages must be released via put_user_page() */
+#define FOLL_PIN       0x40000 /* pages must be released via unpin_user_page */
 
 /*
  * FOLL_PIN and FOLL_LONGTERM may be used in various combinations with each
  * Direct IO). This lets the filesystem know that some non-file-system entity is
  * potentially changing the pages' data. In contrast to FOLL_GET (whose pages
  * are released via put_page()), FOLL_PIN pages must be released, ultimately, by
- * a call to put_user_page().
+ * a call to unpin_user_page().
  *
  * FOLL_PIN is similar to FOLL_GET: both of these pin pages. They use different
  * and separate refcounting mechanisms, however, and that means that each has
  *
  *     FOLL_GET: get_user_pages*() to acquire, and put_page() to release.
  *
- *     FOLL_PIN: pin_user_pages*() to acquire, and put_user_pages to release.
+ *     FOLL_PIN: pin_user_pages*() to acquire, and unpin_user_pages to release.
  *
  * FOLL_PIN and FOLL_GET are mutually exclusive for a given function call.
  * (The underlying pages may experience both FOLL_GET-based and FOLL_PIN-based
  * FOLL_PIN should be set internally by the pin_user_pages*() APIs, never
  * directly by the caller. That's in order to help avoid mismatches when
  * releasing pages: get_user_pages*() pages must be released via put_page(),
- * while pin_user_pages*() pages must be released via put_user_page().
+ * while pin_user_pages*() pages must be released via unpin_user_page().
  *
  * Please see Documentation/vm/pin_user_pages.rst for more information.
  */
 
 }
 
 /**
- * put_user_pages_dirty_lock() - release and optionally dirty gup-pinned pages
+ * unpin_user_pages_dirty_lock() - release and optionally dirty gup-pinned pages
  * @pages:  array of pages to be maybe marked dirty, and definitely released.
  * @npages: number of pages in the @pages array.
  * @make_dirty: whether to mark the pages dirty
  *
  * For each page in the @pages array, make that page (or its head page, if a
  * compound page) dirty, if @make_dirty is true, and if the page was previously
- * listed as clean. In any case, releases all pages using put_user_page(),
- * possibly via put_user_pages(), for the non-dirty case.
+ * listed as clean. In any case, releases all pages using unpin_user_page(),
+ * possibly via unpin_user_pages(), for the non-dirty case.
  *
- * Please see the put_user_page() documentation for details.
+ * Please see the unpin_user_page() documentation for details.
  *
  * set_page_dirty_lock() is used internally. If instead, set_page_dirty() is
  * required, then the caller should a) verify that this is really correct,
  * because _lock() is usually required, and b) hand code it:
- * set_page_dirty_lock(), put_user_page().
+ * set_page_dirty_lock(), unpin_user_page().
  *
  */
-void put_user_pages_dirty_lock(struct page **pages, unsigned long npages,
-                              bool make_dirty)
+void unpin_user_pages_dirty_lock(struct page **pages, unsigned long npages,
+                                bool make_dirty)
 {
        unsigned long index;
 
         */
 
        if (!make_dirty) {
-               put_user_pages(pages, npages);
+               unpin_user_pages(pages, npages);
                return;
        }
 
                 */
                if (!PageDirty(page))
                        set_page_dirty_lock(page);
-               put_user_page(page);
+               unpin_user_page(page);
        }
 }
-EXPORT_SYMBOL(put_user_pages_dirty_lock);
+EXPORT_SYMBOL(unpin_user_pages_dirty_lock);
 
 /**
- * put_user_pages() - release an array of gup-pinned pages.
+ * unpin_user_pages() - release an array of gup-pinned pages.
  * @pages:  array of pages to be marked dirty and released.
  * @npages: number of pages in the @pages array.
  *
- * For each page in the @pages array, release the page using put_user_page().
+ * For each page in the @pages array, release the page using unpin_user_page().
  *
- * Please see the put_user_page() documentation for details.
+ * Please see the unpin_user_page() documentation for details.
  */
-void put_user_pages(struct page **pages, unsigned long npages)
+void unpin_user_pages(struct page **pages, unsigned long npages)
 {
        unsigned long index;
 
         * single operation to the head page should suffice.
         */
        for (index = 0; index < npages; index++)
-               put_user_page(pages[index]);
+               unpin_user_page(pages[index]);
 }
-EXPORT_SYMBOL(put_user_pages);
+EXPORT_SYMBOL(unpin_user_pages);
 
 #ifdef CONFIG_MMU
 static struct page *no_page_table(struct vm_area_struct *vma,
 
                pa += pinned_pages * PAGE_SIZE;
 
                /* If vm_write is set, the pages need to be made dirty: */
-               put_user_pages_dirty_lock(process_pages, pinned_pages,
-                                         vm_write);
+               unpin_user_pages_dirty_lock(process_pages, pinned_pages,
+                                           vm_write);
        }
 
        return rc;
 
 
 static void xdp_umem_unpin_pages(struct xdp_umem *umem)
 {
-       put_user_pages_dirty_lock(umem->pgs, umem->npgs, true);
+       unpin_user_pages_dirty_lock(umem->pgs, umem->npgs, true);
 
        kfree(umem->pgs);
        umem->pgs = NULL;