extern struct page *alloc_pages_vma(gfp_t gfp_mask, int order,
                        struct vm_area_struct *vma, unsigned long addr,
                        int node);
+extern struct page *alloc_hugepage_vma(gfp_t gfp, struct vm_area_struct *vma,
+                                      unsigned long addr, int order);
 #else
 #define alloc_pages(gfp_mask, order) \
                alloc_pages_node(numa_node_id(), gfp_mask, order)
 #define alloc_pages_vma(gfp_mask, order, vma, addr, node)      \
        alloc_pages(gfp_mask, order)
+#define alloc_hugepage_vma(gfp_mask, vma, addr, order) \
+       alloc_pages(gfp_mask, order)
 #endif
 #define alloc_page(gfp_mask) alloc_pages(gfp_mask, 0)
 #define alloc_page_vma(gfp_mask, vma, addr)                    \
 
        return (GFP_TRANSHUGE & ~(defrag ? 0 : __GFP_WAIT)) | extra_gfp;
 }
 
-static inline struct page *alloc_hugepage_vma(int defrag,
-                                             struct vm_area_struct *vma,
-                                             unsigned long haddr, int nd,
-                                             gfp_t extra_gfp)
-{
-       return alloc_pages_vma(alloc_hugepage_gfpmask(defrag, extra_gfp),
-                              HPAGE_PMD_ORDER, vma, haddr, nd);
-}
-
 /* Caller must hold page table lock. */
 static bool set_huge_zero_page(pgtable_t pgtable, struct mm_struct *mm,
                struct vm_area_struct *vma, unsigned long haddr, pmd_t *pmd,
                               unsigned long address, pmd_t *pmd,
                               unsigned int flags)
 {
+       gfp_t gfp;
        struct page *page;
        unsigned long haddr = address & HPAGE_PMD_MASK;
 
                }
                return 0;
        }
-       page = alloc_hugepage_vma(transparent_hugepage_defrag(vma),
-                       vma, haddr, numa_node_id(), 0);
+       gfp = alloc_hugepage_gfpmask(transparent_hugepage_defrag(vma), 0);
+       page = alloc_hugepage_vma(gfp, vma, haddr, HPAGE_PMD_ORDER);
        if (unlikely(!page)) {
                count_vm_event(THP_FAULT_FALLBACK);
                return VM_FAULT_FALLBACK;
        spin_unlock(ptl);
 alloc:
        if (transparent_hugepage_enabled(vma) &&
-           !transparent_hugepage_debug_cow())
-               new_page = alloc_hugepage_vma(transparent_hugepage_defrag(vma),
-                                             vma, haddr, numa_node_id(), 0);
-       else
+           !transparent_hugepage_debug_cow()) {
+               gfp_t gfp;
+
+               gfp = alloc_hugepage_gfpmask(transparent_hugepage_defrag(vma), 0);
+               new_page = alloc_hugepage_vma(gfp, vma, haddr, HPAGE_PMD_ORDER);
+       } else
                new_page = NULL;
 
        if (unlikely(!new_page)) {
 
        return page;
 }
 
+#ifdef CONFIG_TRANSPARENT_HUGEPAGE
+/**
+ * alloc_hugepage_vma: Allocate a hugepage for a VMA
+ * @gfp:
+ *   %GFP_USER   user allocation.
+ *   %GFP_KERNEL  kernel allocations,
+ *   %GFP_HIGHMEM highmem/user allocations,
+ *   %GFP_FS     allocation should not call back into a file system.
+ *   %GFP_ATOMIC  don't sleep.
+ *
+ * @vma:   Pointer to VMA or NULL if not available.
+ * @addr:  Virtual Address of the allocation. Must be inside the VMA.
+ * @order: Order of the hugepage for gfp allocation.
+ *
+ * This functions allocate a huge page from the kernel page pool and applies
+ * a NUMA policy associated with the VMA or the current process.
+ * For policy other than %MPOL_INTERLEAVE, we make sure we allocate hugepage
+ * only from the current node if the current node is part of the node mask.
+ * If we can't allocate a hugepage we fail the allocation and don' try to fallback
+ * to other nodes in the node mask. If the current node is not part of node mask
+ * or if the NUMA policy is MPOL_INTERLEAVE we use the allocator that can
+ * fallback to nodes in the policy node mask.
+ *
+ * When VMA is not NULL caller must hold down_read on the mmap_sem of the
+ * mm_struct of the VMA to prevent it from going away. Should be used for
+ * all allocations for pages that will be mapped into
+ * user space. Returns NULL when no page can be allocated.
+ *
+ * Should be called with vma->vm_mm->mmap_sem held.
+ *
+ */
+struct page *alloc_hugepage_vma(gfp_t gfp, struct vm_area_struct *vma,
+                               unsigned long addr, int order)
+{
+       struct page *page;
+       nodemask_t *nmask;
+       struct mempolicy *pol;
+       int node = numa_node_id();
+       unsigned int cpuset_mems_cookie;
+
+retry_cpuset:
+       pol = get_vma_policy(vma, addr);
+       cpuset_mems_cookie = read_mems_allowed_begin();
+       /*
+        * For interleave policy, we don't worry about
+        * current node. Otherwise if current node is
+        * in nodemask, try to allocate hugepage from
+        * the current node. Don't fall back to other nodes
+        * for THP.
+        */
+       if (unlikely(pol->mode == MPOL_INTERLEAVE))
+               goto alloc_with_fallback;
+       nmask = policy_nodemask(gfp, pol);
+       if (!nmask || node_isset(node, *nmask)) {
+               mpol_cond_put(pol);
+               page = alloc_pages_exact_node(node, gfp, order);
+               if (unlikely(!page &&
+                            read_mems_allowed_retry(cpuset_mems_cookie)))
+                       goto retry_cpuset;
+               return page;
+       }
+alloc_with_fallback:
+       mpol_cond_put(pol);
+       /*
+        * if current node is not part of node mask, try
+        * the allocation from any node, and we can do retry
+        * in that case.
+        */
+       return alloc_pages_vma(gfp, order, vma, addr, node);
+}
+#endif
+
 /**
  *     alloc_pages_current - Allocate pages.
  *