VM_BUG_ON(pfn >> (64 - PAGE_SHIFT));
        VM_BUG_ON((pfn << PAGE_SHIFT) & ~PTE_RPN_MASK);
 
-       return __pte(((pte_basic_t)pfn << PAGE_SHIFT) | pgprot_val(pgprot));
+       return __pte(((pte_basic_t)pfn << PAGE_SHIFT) | pgprot_val(pgprot) | _PAGE_PTE);
 }
 
 static inline unsigned long pte_pfn(pte_t pte)
        return __pte_raw(pte_raw(pte) | cpu_to_be64(_PAGE_EXEC));
 }
 
-static inline pte_t pte_mkpte(pte_t pte)
-{
-       return __pte_raw(pte_raw(pte) | cpu_to_be64(_PAGE_PTE));
-}
-
 static inline pte_t pte_mkwrite(pte_t pte)
 {
        /*
 static inline void __set_pte_at(struct mm_struct *mm, unsigned long addr,
                                pte_t *ptep, pte_t pte, int percpu)
 {
+
+       VM_WARN_ON(!(pte_raw(pte) & cpu_to_be64(_PAGE_PTE)));
+       /*
+        * Keep the _PAGE_PTE added till we are sure we handle _PAGE_PTE
+        * in all the callers.
+        */
+       pte = __pte_raw(pte_raw(pte) | cpu_to_be64(_PAGE_PTE));
+
        if (radix_enabled())
                return radix__set_pte_at(mm, addr, ptep, pte, percpu);
        return hash__set_pte_at(mm, addr, ptep, pte, percpu);
 
        return __pte(pte_val(pte) & ~_PAGE_ACCESSED);
 }
 
-static inline pte_t pte_mkpte(pte_t pte)
-{
-       return pte;
-}
-
 static inline pte_t pte_mkspecial(pte_t pte)
 {
        return __pte(pte_val(pte) | _PAGE_SPECIAL);
 
         */
        VM_WARN_ON(pte_hw_valid(*ptep) && !pte_protnone(*ptep));
 
-       /* Add the pte bit when trying to set a pte */
-       pte = pte_mkpte(pte);
-
        /* Note: mm->context.id might not yet have been assigned as
         * this context might not have been activated yet when this
         * is called.
         */
        VM_WARN_ON(pte_hw_valid(*ptep) && !pte_protnone(*ptep));
 
-       pte = pte_mkpte(pte);
-
        pte = set_pte_filter(pte);
 
        val = pte_val(pte);