#define NODE_MIN_SIZE (4*1024*1024)
 
 extern nodemask_t numa_nodes_parsed __initdata;
-extern nodemask_t mem_nodes_parsed __initdata;
 
 extern int __cpuinit numa_cpu_node(int cpu);
 extern int __init numa_add_memblk(int nodeid, u64 start, u64 end);
 
                               nodeid, (base >> 8) & 3, (limit >> 8) & 3);
                        return -EINVAL;
                }
-               if (node_isset(nodeid, mem_nodes_parsed)) {
+               if (node_isset(nodeid, numa_nodes_parsed)) {
                        pr_info("Node %d already present, skipping\n",
                                nodeid);
                        continue;
 
                prevbase = base;
                numa_add_memblk(nodeid, base, limit);
-               node_set(nodeid, mem_nodes_parsed);
                node_set(nodeid, numa_nodes_parsed);
        }
 
-       if (!nodes_weight(mem_nodes_parsed))
+       if (!nodes_weight(numa_nodes_parsed))
                return -ENOENT;
 
        /*
 
 EXPORT_SYMBOL(node_data);
 
 nodemask_t numa_nodes_parsed __initdata;
-nodemask_t mem_nodes_parsed __initdata;
 
 struct memnode memnode;
 
        return 0;
 }
 
+/*
+ * Set nodes, which have memory in @mi, in *@nodemask.
+ */
+static void __init numa_nodemask_from_meminfo(nodemask_t *nodemask,
+                                             const struct numa_meminfo *mi)
+{
+       int i;
+
+       for (i = 0; i < ARRAY_SIZE(mi->blk); i++)
+               if (mi->blk[i].start != mi->blk[i].end &&
+                   mi->blk[i].nid != NUMA_NO_NODE)
+                       node_set(mi->blk[i].nid, *nodemask);
+}
+
 /*
  * Sanity check to catch more bad NUMA configurations (they are amazingly
  * common).  Make sure the nodes cover all memory.
        int i, j, nid;
 
        /* Account for nodes with cpus and no memory */
-       nodes_or(node_possible_map, mem_nodes_parsed, numa_nodes_parsed);
+       node_possible_map = numa_nodes_parsed;
+       numa_nodemask_from_meminfo(&node_possible_map, mi);
        if (WARN_ON(nodes_empty(node_possible_map)))
                return -EINVAL;
 
               0LU, max_pfn << PAGE_SHIFT);
 
        node_set(0, numa_nodes_parsed);
-       node_set(0, mem_nodes_parsed);
        numa_add_memblk(0, 0, (u64)max_pfn << PAGE_SHIFT);
 
        return 0;
                        set_apicid_to_node(j, NUMA_NO_NODE);
 
                nodes_clear(numa_nodes_parsed);
-               nodes_clear(mem_nodes_parsed);
                nodes_clear(node_possible_map);
                nodes_clear(node_online_map);
                memset(&numa_meminfo, 0, sizeof(numa_meminfo));
 
        printk(KERN_INFO "SRAT: Node %u PXM %u %lx-%lx\n", node, pxm,
               start, end);
 
-       if (!(ma->flags & ACPI_SRAT_MEM_HOT_PLUGGABLE))
-               node_set(node, mem_nodes_parsed);
-       else
+       if (ma->flags & ACPI_SRAT_MEM_HOT_PLUGGABLE)
                update_nodes_add(node, start, end);
 }
 
                __acpi_map_pxm_to_node(fake_node_to_pxm_map[i], i);
        memcpy(__apicid_to_node, fake_apicid_to_node, sizeof(__apicid_to_node));
 
-       nodes_clear(mem_nodes_parsed);
        for (i = 0; i < num_nodes; i++)
                if (fake_nodes[i].start != fake_nodes[i].end)
-                       node_set(i, mem_nodes_parsed);
+                       node_set(i, numa_nodes_parsed);
 }
 
 static int null_slit_node_compare(int a, int b)