return pa;
 }
 
-/*
- * This is what we should always use. Any other lockless page table lookup needs
- * careful audit against THP split.
- */
-static inline pte_t *find_current_mm_pte(pgd_t *pgdir, unsigned long ea,
-                                        bool *is_thp, unsigned *hshift)
-{
-       pte_t *pte;
-
-       VM_WARN(!arch_irqs_disabled(), "%s called with irq enabled\n", __func__);
-       VM_WARN(pgdir != current->mm->pgd,
-               "%s lock less page table lookup called on wrong mm\n", __func__);
-       pte = __find_linux_pte(pgdir, ea, is_thp, hshift);
-
-#if defined(CONFIG_DEBUG_VM) &&                                                \
-       !(defined(CONFIG_HUGETLB_PAGE) || defined(CONFIG_TRANSPARENT_HUGEPAGE))
-       /*
-        * We should not find huge page if these configs are not enabled.
-        */
-       if (hshift)
-               WARN_ON(*hshift);
-#endif
-       return pte;
-}
-
 #endif /* _ASM_POWERPC_PTE_WALK_H */
 
 }
 
 /*
- * Serialize against find_current_mm_pte which does lock-less
+ * Serialize against __find_linux_pte() which does lock-less
  * lookup in page tables with local interrupts disabled. For huge pages
  * it casts pmd_t to pte_t. Since format of pte_t is different from
  * pmd_t we want to prevent transit from pmd pointing to page table
  * to pmd pointing to huge page (and back) while interrupts are disabled.
  * We clear pmd to possibly replace it with page table pointer in
  * different code paths. So make sure we wait for the parallel
- * find_current_mm_pte to finish.
+ * __find_linux_pte() to finish.
  */
 void serialize_against_pte_lookup(struct mm_struct *mm)
 {