struct page *__alloc_pages(gfp_t gfp, unsigned int order, int preferred_nid,
                nodemask_t *nodemask);
 
+unsigned long __alloc_pages_bulk(gfp_t gfp, int preferred_nid,
+                               nodemask_t *nodemask, int nr_pages,
+                               struct list_head *list);
+
+/* Bulk allocate order-0 pages */
+static inline unsigned long
+alloc_pages_bulk(gfp_t gfp, unsigned long nr_pages, struct list_head *list)
+{
+       return __alloc_pages_bulk(gfp, numa_mem_id(), NULL, nr_pages, list);
+}
+
 /*
  * Allocate pages, preferring the node given as nid. The node must be valid and
  * online. For more general interface, see alloc_pages_node().
 
        return true;
 }
 
+/*
+ * __alloc_pages_bulk - Allocate a number of order-0 pages to a list
+ * @gfp: GFP flags for the allocation
+ * @preferred_nid: The preferred NUMA node ID to allocate from
+ * @nodemask: Set of nodes to allocate from, may be NULL
+ * @nr_pages: The number of pages desired on the list
+ * @page_list: List to store the allocated pages
+ *
+ * This is a batched version of the page allocator that attempts to
+ * allocate nr_pages quickly and add them to a list.
+ *
+ * Returns the number of pages on the list.
+ */
+unsigned long __alloc_pages_bulk(gfp_t gfp, int preferred_nid,
+                       nodemask_t *nodemask, int nr_pages,
+                       struct list_head *page_list)
+{
+       struct page *page;
+       unsigned long flags;
+       struct zone *zone;
+       struct zoneref *z;
+       struct per_cpu_pages *pcp;
+       struct list_head *pcp_list;
+       struct alloc_context ac;
+       gfp_t alloc_gfp;
+       unsigned int alloc_flags = ALLOC_WMARK_LOW;
+       int allocated = 0;
+
+       if (WARN_ON_ONCE(nr_pages <= 0))
+               return 0;
+
+       /* Use the single page allocator for one page. */
+       if (nr_pages == 1)
+               goto failed;
+
+       /* May set ALLOC_NOFRAGMENT, fragmentation will return 1 page. */
+       gfp &= gfp_allowed_mask;
+       alloc_gfp = gfp;
+       if (!prepare_alloc_pages(gfp, 0, preferred_nid, nodemask, &ac, &alloc_gfp, &alloc_flags))
+               return 0;
+       gfp = alloc_gfp;
+
+       /* Find an allowed local zone that meets the low watermark. */
+       for_each_zone_zonelist_nodemask(zone, z, ac.zonelist, ac.highest_zoneidx, ac.nodemask) {
+               unsigned long mark;
+
+               if (cpusets_enabled() && (alloc_flags & ALLOC_CPUSET) &&
+                   !__cpuset_zone_allowed(zone, gfp)) {
+                       continue;
+               }
+
+               if (nr_online_nodes > 1 && zone != ac.preferred_zoneref->zone &&
+                   zone_to_nid(zone) != zone_to_nid(ac.preferred_zoneref->zone)) {
+                       goto failed;
+               }
+
+               mark = wmark_pages(zone, alloc_flags & ALLOC_WMARK_MASK) + nr_pages;
+               if (zone_watermark_fast(zone, 0,  mark,
+                               zonelist_zone_idx(ac.preferred_zoneref),
+                               alloc_flags, gfp)) {
+                       break;
+               }
+       }
+
+       /*
+        * If there are no allowed local zones that meets the watermarks then
+        * try to allocate a single page and reclaim if necessary.
+        */
+       if (!zone)
+               goto failed;
+
+       /* Attempt the batch allocation */
+       local_irq_save(flags);
+       pcp = &this_cpu_ptr(zone->pageset)->pcp;
+       pcp_list = &pcp->lists[ac.migratetype];
+
+       while (allocated < nr_pages) {
+               page = __rmqueue_pcplist(zone, ac.migratetype, alloc_flags,
+                                                               pcp, pcp_list);
+               if (!page) {
+                       /* Try and get at least one page */
+                       if (!allocated)
+                               goto failed_irq;
+                       break;
+               }
+
+               /*
+                * Ideally this would be batched but the best way to do
+                * that cheaply is to first convert zone_statistics to
+                * be inaccurate per-cpu counter like vm_events to avoid
+                * a RMW cycle then do the accounting with IRQs enabled.
+                */
+               __count_zid_vm_events(PGALLOC, zone_idx(zone), 1);
+               zone_statistics(ac.preferred_zoneref->zone, zone);
+
+               prep_new_page(page, 0, gfp, 0);
+               list_add(&page->lru, page_list);
+               allocated++;
+       }
+
+       local_irq_restore(flags);
+
+       return allocated;
+
+failed_irq:
+       local_irq_restore(flags);
+
+failed:
+       page = __alloc_pages(gfp, 0, preferred_nid, nodemask);
+       if (page) {
+               list_add(&page->lru, page_list);
+               allocated = 1;
+       }
+
+       return allocated;
+}
+EXPORT_SYMBOL_GPL(__alloc_pages_bulk);
+
 /*
  * This is the 'heart' of the zoned buddy allocator.
  */