pte_t *ptep, unsigned long clr,
                                       int huge)
 {
+#ifdef PTE_ATOMIC_UPDATES
        unsigned long old, tmp;
 
        __asm__ __volatile__(
        : "=&r" (old), "=&r" (tmp), "=m" (*ptep)
        : "r" (ptep), "r" (clr), "m" (*ptep), "i" (_PAGE_BUSY)
        : "cc" );
-
+#else
+       unsigned long old = pte_val(*ptep);
+       *ptep = __pte(old & ~clr);
+#endif
        /* huge pages use the old page table lock */
        if (!huge)
                assert_pte_locked(mm, addr);
        unsigned long bits = pte_val(entry) &
                (_PAGE_DIRTY | _PAGE_ACCESSED | _PAGE_RW |
                 _PAGE_EXEC | _PAGE_HWEXEC);
+
+#ifdef PTE_ATOMIC_UPDATES
        unsigned long old, tmp;
 
        __asm__ __volatile__(
        :"=&r" (old), "=&r" (tmp), "=m" (*ptep)
        :"r" (bits), "r" (ptep), "m" (*ptep), "i" (_PAGE_BUSY)
        :"cc");
+#else
+       unsigned long old = pte_val(*ptep);
+       *ptep = __pte(old | bits);
+#endif
 }
 
 #define __HAVE_ARCH_PTE_SAME
 
 #define _PTEIDX_SECONDARY      0x8
 #define _PTEIDX_GROUP_IX       0x7
 
+/* Hash table based platforms need atomic updates of the linux PTE */
+#define PTE_ATOMIC_UPDATES     1
 
 #ifdef CONFIG_PPC_64K_PAGES
 #include <asm/pte-hash64-64k.h>