#include <linux/smp.h>
 #include <linux/threads.h>
+#include <linux/numa.h>
 #include <asm/machvec.h>
 
 #ifdef CONFIG_NUMA
 {
        int cpu;
 
-       if (node == -1)
+       if (node == NUMA_NO_NODE)
                return cpu_all_mask;
 
        cpumask_clear(&node_to_cpumask_map[node]);
 
                cpumask_clear(&node_to_cpu_mask[node]);
 
        for_each_possible_early_cpu(cpu) {
-               node = -1;
+               node = NUMA_NO_NODE;
                for (i = 0; i < NR_CPUS; ++i)
                        if (cpu_physical_id(cpu) == node_cpuid[i].phys_id) {
                                node = node_cpuid[i].nid;
 
         * CPUs are put into groups according to node.  Walk cpu_map
         * and create new groups at node boundaries.
         */
-       prev_node = -1;
+       prev_node = NUMA_NO_NODE;
        ai->nr_groups = 0;
        for (unit = 0; unit < nr_units; unit++) {
                cpu = cpu_map[unit];
 {
        void *ptr = NULL;
        u8 best = 0xff;
-       int bestnode = -1, node, anynode = 0;
+       int bestnode = NUMA_NO_NODE, node, anynode = 0;
 
        for_each_online_node(node) {
                if (node_isset(node, memory_less_mask))
                anynode = node;
        }
 
-       if (bestnode == -1)
+       if (bestnode == NUMA_NO_NODE)
                bestnode = anynode;
 
        ptr = memblock_alloc_try_nid(pernodesize, PERCPU_PAGE_SIZE,
 
 #include <linux/pci.h>
 #include <linux/list.h>
 #include <linux/ioport.h>
+#include <linux/numa.h>
 
 struct device_node;
 
 #ifdef CONFIG_NUMA
 #define PHB_SET_NODE(PHB, NODE)                ((PHB)->node = (NODE))
 #else
-#define PHB_SET_NODE(PHB, NODE)                ((PHB)->node = -1)
+#define PHB_SET_NODE(PHB, NODE)                ((PHB)->node = NUMA_NO_NODE)
 #endif
 
 #endif /* CONFIG_PPC64 */
 
 #include <linux/export.h>
 #include <linux/memblock.h>
 #include <linux/sched/task.h>
+#include <linux/numa.h>
 
 #include <asm/lppaca.h>
 #include <asm/paca.h>
         * which will put its paca in the right place.
         */
        if (cpu == boot_cpuid) {
-               nid = -1;
+               nid = NUMA_NO_NODE;
                memblock_set_bottom_up(true);
        } else {
                nid = early_cpu_to_node(cpu);
 
 #include <linux/vmalloc.h>
 #include <linux/slab.h>
 #include <linux/vgaarb.h>
+#include <linux/numa.h>
 
 #include <asm/processor.h>
 #include <asm/io.h>
                int nid = of_node_to_nid(dev);
 
                if (nid < 0 || !node_online(nid))
-                       nid = -1;
+                       nid = NUMA_NO_NODE;
 
                PHB_SET_NODE(phb, nid);
        }
 
  */
 static int associativity_to_nid(const __be32 *associativity)
 {
-       int nid = -1;
+       int nid = NUMA_NO_NODE;
 
        if (min_common_depth == -1)
                goto out;
 
        /* POWER4 LPAR uses 0xffff as invalid node */
        if (nid == 0xffff || nid >= MAX_NUMNODES)
-               nid = -1;
+               nid = NUMA_NO_NODE;
 
        if (nid > 0 &&
                of_read_number(associativity, 1) >= distance_ref_points_depth) {
  */
 static int of_node_to_nid_single(struct device_node *device)
 {
-       int nid = -1;
+       int nid = NUMA_NO_NODE;
        const __be32 *tmp;
 
        tmp = of_get_associativity(device);
 /* Walk the device tree upwards, looking for an associativity id */
 int of_node_to_nid(struct device_node *device)
 {
-       int nid = -1;
+       int nid = NUMA_NO_NODE;
 
        of_node_get(device);
        while (device) {
  */
 static int numa_setup_cpu(unsigned long lcpu)
 {
-       int nid = -1;
+       int nid = NUMA_NO_NODE;
        struct device_node *cpu;
 
        /*
 {
        struct drmem_lmb *lmb;
        unsigned long lmb_size;
-       int nid = -1;
+       int nid = NUMA_NO_NODE;
 
        lmb_size = drmem_lmb_size();
 
 static int hot_add_node_scn_to_nid(unsigned long scn_addr)
 {
        struct device_node *memory;
-       int nid = -1;
+       int nid = NUMA_NO_NODE;
 
        for_each_node_by_type(memory, "memory") {
                unsigned long start, size;
 
 #include <linux/slab.h>
 #include <linux/memory.h>
 #include <linux/memory_hotplug.h>
+#include <linux/numa.h>
 #include <asm/machdep.h>
 #include <asm/debugfs.h>
 
                ent = &memtrace_array[i];
 
                /* We have onlined this chunk previously */
-               if (ent->nid == -1)
+               if (ent->nid == NUMA_NO_NODE)
                        continue;
 
                /* Remove from io mappings */
                 */
                debugfs_remove_recursive(ent->dir);
                pr_info("Added trace memory back to node %d\n", ent->nid);
-               ent->size = ent->start = ent->nid = -1;
+               ent->size = ent->start = ent->nid = NUMA_NO_NODE;
        }
        if (ret)
                return ret;
 
 #include <linux/export.h>
 #include <linux/irq.h>
 #include <linux/of_device.h>
+#include <linux/numa.h>
 
 #include <asm/prom.h>
 #include <asm/irq.h>
        struct device_node *dp = op->dev.of_node;
        int err;
 
-       pbm->numa_node = -1;
+       pbm->numa_node = NUMA_NO_NODE;
 
        pbm->pci_ops = &sun4u_pci_ops;
        pbm->config_space_reg_bits = 12;
 
 #include <linux/export.h>
 #include <linux/interrupt.h>
 #include <linux/of_device.h>
+#include <linux/numa.h>
 
 #include <asm/iommu.h>
 #include <asm/irq.h>
        pbm->next = pci_pbm_root;
        pci_pbm_root = pbm;
 
-       pbm->numa_node = -1;
+       pbm->numa_node = NUMA_NO_NODE;
 
        pbm->pci_ops = &sun4u_pci_ops;
        pbm->config_space_reg_bits = 8;
 
  */
 #include <linux/kernel.h>
 #include <linux/interrupt.h>
+#include <linux/numa.h>
 
 #include <asm/upa.h>
 
        struct device_node *dp = op->dev.of_node;
 
        pbm->name = dp->full_name;
-       pbm->numa_node = -1;
+       pbm->numa_node = NUMA_NO_NODE;
        pbm->chip_type = chip_type;
        pbm->chip_version = of_getintprop_default(dp, "version#", 0);
        pbm->chip_revision = of_getintprop_default(dp, "module-revision#", 0);
 
 #include <linux/interrupt.h>
 #include <linux/of.h>
 #include <linux/of_device.h>
+#include <linux/numa.h>
 
 #include <asm/page.h>
 #include <asm/io.h>
 
        op->dev.archdata.iommu = iommu;
        op->dev.archdata.stc = strbuf;
-       op->dev.archdata.numa_node = -1;
+       op->dev.archdata.numa_node = NUMA_NO_NODE;
 
        reg_base = regs + SYSIO_IOMMUREG_BASE;
        iommu->iommu_control = reg_base + IOMMU_CONTROL;
 
 {
        int prev_nid, new_nid;
 
-       prev_nid = -1;
+       prev_nid = NUMA_NO_NODE;
        for ( ; start < end; start += PAGE_SIZE) {
                for (new_nid = 0; new_nid < num_node_masks; new_nid++) {
                        struct node_mem_mask *p = &node_masks[new_nid];
 
                        if ((start & p->mask) == p->match) {
-                               if (prev_nid == -1)
+                               if (prev_nid == NUMA_NO_NODE)
                                        prev_nid = new_nid;
                                break;
                        }
        md = mdesc_grab();
 
        count = 0;
-       nid = -1;
+       nid = NUMA_NO_NODE;
        mdesc_for_each_node_by_name(md, grp, "group") {
                if (!scan_arcs_for_cfg_handle(md, grp, cfg_handle)) {
                        nid = count;
 
 #include <linux/slab.h>
 #include <linux/string.h>
 #include <linux/scatterlist.h>
+#include <linux/numa.h>
 #include <asm/io.h>
 #include <asm/pat.h>
 #include <asm/x86_init.h>
        int node;
 
        node = __pcibus_to_node(bus);
-       return (node == -1) ? cpu_online_mask :
+       return (node == NUMA_NO_NODE) ? cpu_online_mask :
                              cpumask_of_node(node);
 }
 #endif
 
 #include <linux/crash_dump.h>
 #include <linux/reboot.h>
 #include <linux/memory.h>
+#include <linux/numa.h>
 
 #include <asm/uv/uv_mmrs.h>
 #include <asm/uv/uv_hub.h>
        }
 
        /* Set socket -> node values: */
-       lnid = -1;
+       lnid = NUMA_NO_NODE;
        for_each_present_cpu(cpu) {
                int nid = cpu_to_node(cpu);
                int apicid, sockid;
                        new_hub->pnode = 0xffff;
 
                new_hub->numa_blade_id = uv_node_to_blade_id(nodeid);
-               new_hub->memory_nid = -1;
+               new_hub->memory_nid = NUMA_NO_NODE;
                new_hub->nr_possible_cpus = 0;
                new_hub->nr_online_cpus = 0;
        }
 
                uv_cpu_info_per(cpu)->p_uv_hub_info = uv_hub_info_list(nodeid);
                uv_cpu_info_per(cpu)->blade_cpu_id = uv_cpu_hub_info(cpu)->nr_possible_cpus++;
-               if (uv_cpu_hub_info(cpu)->memory_nid == -1)
+               if (uv_cpu_hub_info(cpu)->memory_nid == NUMA_NO_NODE)
                        uv_cpu_hub_info(cpu)->memory_nid = cpu_to_node(cpu);
 
                /* Init memoryless node: */
 
 #include <linux/stackprotector.h>
 #include <linux/gfp.h>
 #include <linux/cpuidle.h>
+#include <linux/numa.h>
 
 #include <asm/acpi.h>
 #include <asm/desc.h>
 /* reduce the number of lines printed when booting a large cpu count system */
 static void announce_cpu(int cpu, int apicid)
 {
-       static int current_node = -1;
+       static int current_node = NUMA_NO_NODE;
        int node = early_cpu_to_node(cpu);
        static int width, node_width;
 
 
 #include <linux/export.h>
 #include <linux/debugfs.h>
 #include <linux/prefetch.h>
+#include <linux/numa.h>
 #include "mtip32xx.h"
 
 #define HW_CMD_SLOT_SZ         (MTIP_MAX_COMMAND_SLOTS * 32)
 /* Helper for selecting a node in round robin mode */
 static inline int mtip_get_next_rr_node(void)
 {
-       static int next_node = -1;
+       static int next_node = NUMA_NO_NODE;
 
-       if (next_node == -1) {
+       if (next_node == NUMA_NO_NODE) {
                next_node = first_online_node;
                return next_node;
        }
 
 #include <linux/acpi_dma.h>
 #include <linux/of_dma.h>
 #include <linux/mempool.h>
+#include <linux/numa.h>
 
 static DEFINE_MUTEX(dma_list_mutex);
 static DEFINE_IDA(dma_ida);
 static bool dma_chan_is_local(struct dma_chan *chan, int cpu)
 {
        int node = dev_to_node(chan->device->dev);
-       return node == -1 || cpumask_test_cpu(cpu, cpumask_of_node(node));
+       return node == NUMA_NO_NODE ||
+               cpumask_test_cpu(cpu, cpumask_of_node(node));
 }
 
 /**
 
 #include <linux/cpumask.h>
 #include <linux/module.h>
 #include <linux/interrupt.h>
+#include <linux/numa.h>
 
 #include "hfi.h"
 #include "affinity.h"
        _dev_comp_vect_cpu_mask_clean_up(dd, entry);
 unlock:
        mutex_unlock(&node_affinity.lock);
-       dd->node = -1;
+       dd->node = NUMA_NO_NODE;
 }
 
 /*
 
 #include <linux/printk.h>
 #include <linux/hrtimer.h>
 #include <linux/bitmap.h>
+#include <linux/numa.h>
 #include <rdma/rdma_vt.h>
 
 #include "hfi.h"
                dd->unit = ret;
                list_add(&dd->list, &hfi1_dev_list);
        }
-       dd->node = -1;
+       dd->node = NUMA_NO_NODE;
 
        spin_unlock_irqrestore(&hfi1_devs_lock, flags);
        idr_preload_end();
 
 #include <linux/dmi.h>
 #include <linux/slab.h>
 #include <linux/iommu.h>
+#include <linux/numa.h>
 #include <asm/irq_remapping.h>
 #include <asm/iommu_table.h>
 
                        int node = acpi_map_pxm_to_node(rhsa->proximity_domain);
 
                        if (!node_online(node))
-                               node = -1;
+                               node = NUMA_NO_NODE;
                        drhd->iommu->node = node;
                        return 0;
                }
        iommu->msagaw = msagaw;
        iommu->segment = drhd->segment;
 
-       iommu->node = -1;
+       iommu->node = NUMA_NO_NODE;
 
        ver = readl(iommu->reg + DMAR_VER_REG);
        pr_info("%s: reg_base_addr %llx ver %d:%d cap %llx ecap %llx\n",
 
 #include <linux/dma-contiguous.h>
 #include <linux/dma-direct.h>
 #include <linux/crash_dump.h>
+#include <linux/numa.h>
 #include <asm/irq_remapping.h>
 #include <asm/cacheflush.h>
 #include <asm/iommu.h>
                return NULL;
 
        memset(domain, 0, sizeof(*domain));
-       domain->nid = -1;
+       domain->nid = NUMA_NO_NODE;
        domain->flags = flags;
        domain->has_iotlb_device = false;
        INIT_LIST_HEAD(&domain->devices);
 
 #include <linux/module.h>
 #include <linux/err.h>
 #include <linux/slab.h>
+#include <linux/numa.h>
 #include <asm/uv/uv_hub.h>
 #if defined CONFIG_X86_64
 #include <asm/uv/bios.h>
                                         XPC_NOTIFY_MSG_SIZE_UV)
 #define XPC_NOTIFY_IRQ_NAME            "xpc_notify"
 
-static int xpc_mq_node = -1;
+static int xpc_mq_node = NUMA_NO_NODE;
 
 static struct xpc_gru_mq_uv *xpc_activate_mq_uv;
 static struct xpc_gru_mq_uv *xpc_notify_mq_uv;
 
 #include <linux/bpf.h>
 #include <linux/bpf_trace.h>
 #include <linux/atomic.h>
+#include <linux/numa.h>
 #include <scsi/fc/fc_fcoe.h>
 #include <net/udp_tunnel.h>
 #include <net/pkt_cls.h>
 {
        struct device *dev = tx_ring->dev;
        int orig_node = dev_to_node(dev);
-       int ring_node = -1;
+       int ring_node = NUMA_NO_NODE;
        int size;
 
        size = sizeof(struct ixgbe_tx_buffer) * tx_ring->count;
 {
        struct device *dev = rx_ring->dev;
        int orig_node = dev_to_node(dev);
-       int ring_node = -1;
+       int ring_node = NUMA_NO_NODE;
        int size;
 
        size = sizeof(struct ixgbe_rx_buffer) * rx_ring->count;
 
 #else
 static inline int dev_to_node(struct device *dev)
 {
-       return -1;
+       return NUMA_NO_NODE;
 }
 static inline void set_dev_node(struct device *dev, int node)
 {
 
 #include <linux/fs.h>
 #include <linux/mm.h>
 #include <linux/audit.h>
+#include <linux/numa.h>
 
 #include <asm/pgtable.h>
 #include <linux/uaccess.h>
        .vtime.state    = VTIME_SYS,
 #endif
 #ifdef CONFIG_NUMA_BALANCING
-       .numa_preferred_nid = -1,
+       .numa_preferred_nid = NUMA_NO_NODE,
        .numa_group     = NULL,
        .numa_faults    = NULL,
 #endif
 
 #include <linux/freezer.h>
 #include <linux/ptrace.h>
 #include <linux/uaccess.h>
+#include <linux/numa.h>
 #include <trace/events/sched.h>
 
 static DEFINE_SPINLOCK(kthread_create_lock);
 {
        struct kthread_worker *worker;
        struct task_struct *task;
-       int node = -1;
+       int node = NUMA_NO_NODE;
 
        worker = kzalloc(sizeof(*worker), GFP_KERNEL);
        if (!worker)
 
 
        /* New address space, reset the preferred nid */
        if (!(clone_flags & CLONE_VM)) {
-               p->numa_preferred_nid = -1;
+               p->numa_preferred_nid = NUMA_NO_NODE;
                return;
        }
 
 
 static void account_numa_enqueue(struct rq *rq, struct task_struct *p)
 {
-       rq->nr_numa_running += (p->numa_preferred_nid != -1);
+       rq->nr_numa_running += (p->numa_preferred_nid != NUMA_NO_NODE);
        rq->nr_preferred_running += (p->numa_preferred_nid == task_node(p));
 }
 
 static void account_numa_dequeue(struct rq *rq, struct task_struct *p)
 {
-       rq->nr_numa_running -= (p->numa_preferred_nid != -1);
+       rq->nr_numa_running -= (p->numa_preferred_nid != NUMA_NO_NODE);
        rq->nr_preferred_running -= (p->numa_preferred_nid == task_node(p));
 }
 
         * two full passes of the "multi-stage node selection" test that is
         * executed below.
         */
-       if ((p->numa_preferred_nid == -1 || p->numa_scan_seq <= 4) &&
+       if ((p->numa_preferred_nid == NUMA_NO_NODE || p->numa_scan_seq <= 4) &&
            (cpupid_pid_unset(last_cpupid) || cpupid_match_pid(p, last_cpupid)))
                return true;
 
        unsigned long interval = HZ;
 
        /* This task has no NUMA fault statistics yet */
-       if (unlikely(p->numa_preferred_nid == -1 || !p->numa_faults))
+       if (unlikely(p->numa_preferred_nid == NUMA_NO_NODE || !p->numa_faults))
                return;
 
        /* Periodically retry migrating the task to the preferred node */
 
 static void task_numa_placement(struct task_struct *p)
 {
-       int seq, nid, max_nid = -1;
+       int seq, nid, max_nid = NUMA_NO_NODE;
        unsigned long max_faults = 0;
        unsigned long fault_types[2] = { 0, 0 };
        unsigned long total_faults;
                 * the preferred node.
                 */
                if (dst_nid == p->numa_preferred_nid ||
-                   (p->numa_preferred_nid != -1 && src_nid != p->numa_preferred_nid))
+                   (p->numa_preferred_nid != NUMA_NO_NODE &&
+                       src_nid != p->numa_preferred_nid))
                        return;
        }
 
 
 #include <linux/cpumask.h>
 #include <linux/export.h>
 #include <linux/memblock.h>
+#include <linux/numa.h>
 
 /**
  * cpumask_next - get the next cpu in a cpumask
        /* Wrap: we always want a cpu. */
        i %= num_online_cpus();
 
-       if (node == -1) {
+       if (node == NUMA_NO_NODE) {
                for_each_cpu(cpu, cpu_online_mask)
                        if (i-- == 0)
                                return cpu;
 
 #include <linux/page_idle.h>
 #include <linux/shmem_fs.h>
 #include <linux/oom.h>
+#include <linux/numa.h>
 
 #include <asm/tlb.h>
 #include <asm/pgalloc.h>
        struct anon_vma *anon_vma = NULL;
        struct page *page;
        unsigned long haddr = vmf->address & HPAGE_PMD_MASK;
-       int page_nid = -1, this_nid = numa_node_id();
+       int page_nid = NUMA_NO_NODE, this_nid = numa_node_id();
        int target_nid, last_cpupid = -1;
        bool page_locked;
        bool migrated = false;
         */
        page_locked = trylock_page(page);
        target_nid = mpol_misplaced(page, vma, haddr);
-       if (target_nid == -1) {
+       if (target_nid == NUMA_NO_NODE) {
                /* If the page was locked, there are no parallel migrations */
                if (page_locked)
                        goto clear_pmdnuma;
 
        /* Migration could have started since the pmd_trans_migrating check */
        if (!page_locked) {
-               page_nid = -1;
+               page_nid = NUMA_NO_NODE;
                if (!get_page_unless_zero(page))
                        goto out_unlock;
                spin_unlock(vmf->ptl);
        if (unlikely(!pmd_same(pmd, *vmf->pmd))) {
                unlock_page(page);
                put_page(page);
-               page_nid = -1;
+               page_nid = NUMA_NO_NODE;
                goto out_unlock;
        }
 
        /* Bail if we fail to protect against THP splits for any reason */
        if (unlikely(!anon_vma)) {
                put_page(page);
-               page_nid = -1;
+               page_nid = NUMA_NO_NODE;
                goto clear_pmdnuma;
        }
 
        if (anon_vma)
                page_unlock_anon_vma_read(anon_vma);
 
-       if (page_nid != -1)
+       if (page_nid != NUMA_NO_NODE)
                task_numa_fault(last_cpupid, page_nid, HPAGE_PMD_NR,
                                flags);
 
 
 #include <linux/swap.h>
 #include <linux/swapops.h>
 #include <linux/jhash.h>
+#include <linux/numa.h>
 
 #include <asm/page.h>
 #include <asm/pgtable.h>
        struct zonelist *zonelist;
        struct zone *zone;
        struct zoneref *z;
-       int node = -1;
+       int node = NUMA_NO_NODE;
 
        zonelist = node_zonelist(nid, gfp_mask);
 
 
                chain->chain_prune_time = jiffies;
                chain->rmap_hlist_len = STABLE_NODE_CHAIN;
 #if defined (CONFIG_DEBUG_VM) && defined(CONFIG_NUMA)
-               chain->nid = -1; /* debug */
+               chain->nid = NUMA_NO_NODE; /* debug */
 #endif
                ksm_stable_node_chains++;
 
 
 #include <linux/userfaultfd_k.h>
 #include <linux/dax.h>
 #include <linux/oom.h>
+#include <linux/numa.h>
 
 #include <asm/io.h>
 #include <asm/mmu_context.h>
 {
        struct vm_area_struct *vma = vmf->vma;
        struct page *page = NULL;
-       int page_nid = -1;
+       int page_nid = NUMA_NO_NODE;
        int last_cpupid;
        int target_nid;
        bool migrated = false;
        target_nid = numa_migrate_prep(page, vma, vmf->address, page_nid,
                        &flags);
        pte_unmap_unlock(vmf->pte, vmf->ptl);
-       if (target_nid == -1) {
+       if (target_nid == NUMA_NO_NODE) {
                put_page(page);
                goto out;
        }
                flags |= TNF_MIGRATE_FAIL;
 
 out:
-       if (page_nid != -1)
+       if (page_nid != NUMA_NO_NODE)
                task_numa_fault(last_cpupid, page_nid, 1, flags);
        return 0;
 }
 
 {
        int nid = zone_to_nid(zone);
 
-       arg->status_change_nid = -1;
-       arg->status_change_nid_normal = -1;
-       arg->status_change_nid_high = -1;
+       arg->status_change_nid = NUMA_NO_NODE;
+       arg->status_change_nid_normal = NUMA_NO_NODE;
+       arg->status_change_nid_high = NUMA_NO_NODE;
 
        if (!node_state(nid, N_MEMORY))
                arg->status_change_nid = nid;
        unsigned long present_pages = 0;
        enum zone_type zt;
 
-       arg->status_change_nid = -1;
-       arg->status_change_nid_normal = -1;
-       arg->status_change_nid_high = -1;
+       arg->status_change_nid = NUMA_NO_NODE;
+       arg->status_change_nid_normal = NUMA_NO_NODE;
+       arg->status_change_nid_high = NUMA_NO_NODE;
 
        /*
         * Check whether node_states[N_NORMAL_MEMORY] will be changed.
 
        unsigned long pgoff;
        int thiscpu = raw_smp_processor_id();
        int thisnid = cpu_to_node(thiscpu);
-       int polnid = -1;
+       int polnid = NUMA_NO_NODE;
        int ret = -1;
 
        pol = get_vma_policy(vma, addr);
 
                return state->last_nid;
 
        nid = memblock_search_pfn_nid(pfn, &start_pfn, &end_pfn);
-       if (nid != -1) {
+       if (nid != NUMA_NO_NODE) {
                state->last_start = start_pfn;
                state->last_end = end_pfn;
                state->last_nid = nid;
 {
        unsigned long accl_mask = 0, last_end = 0;
        unsigned long start, end, mask;
-       int last_nid = -1;
+       int last_nid = NUMA_NO_NODE;
        int i, nid;
 
        for_each_mem_pfn_range(i, MAX_NUMNODES, &start, &end, &nid) {
 
        start = SECTION_ALIGN_DOWN(start_pfn);
        end = SECTION_ALIGN_UP(start_pfn + nr_pages);
 
-       if (nid == -1) {
+       if (nid == NUMA_NO_NODE) {
                /*
                 * In this case, "nid" already exists and contains valid memory.
                 * "start_pfn" passed to us is a pfn which is an arg for
 
 #include <linux/etherdevice.h>
 #include <linux/kthread.h>
 #include <linux/prefetch.h>
+#include <linux/mmzone.h>
 #include <net/net_namespace.h>
 #include <net/checksum.h>
 #include <net/ipv6.h>
        pkt_dev->svlan_cfi = 0;
        pkt_dev->svlan_id = 0xffff;
        pkt_dev->burst = 1;
-       pkt_dev->node = -1;
+       pkt_dev->node = NUMA_NO_NODE;
 
        err = pktgen_setup_dev(t->net, pkt_dev, ifname);
        if (err)
 
 #include <linux/netlink.h>
 #include <linux/qrtr.h>
 #include <linux/termios.h>     /* For TIOCINQ/OUTQ */
+#include <linux/numa.h>
 
 #include <net/sock.h>
 
        return container_of(sk, struct qrtr_sock, sk);
 }
 
-static unsigned int qrtr_local_nid = -1;
+static unsigned int qrtr_local_nid = NUMA_NO_NODE;
 
 /* for node ids */
 static RADIX_TREE(qrtr_nodes, GFP_KERNEL);