bcm47xx_buttons_buffalo_whr_g125[] __initconst = {
        BCM47XX_GPIO_KEY(0, KEY_WPS_BUTTON),
        BCM47XX_GPIO_KEY(4, KEY_RESTART),
-       BCM47XX_GPIO_KEY(5, BTN_0), /* Router / AP mode swtich */
+       BCM47XX_GPIO_KEY(5, BTN_0), /* Router / AP mode switch */
 };
 
 static const struct gpio_keys_button
 bcm47xx_buttons_buffalo_whr_g54s[] __initconst = {
        BCM47XX_GPIO_KEY(0, KEY_WPS_BUTTON),
        BCM47XX_GPIO_KEY_H(4, KEY_RESTART),
-       BCM47XX_GPIO_KEY(5, BTN_0), /* Router / AP mode swtich */
+       BCM47XX_GPIO_KEY(5, BTN_0), /* Router / AP mode switch */
 };
 
 static const struct gpio_keys_button
 bcm47xx_buttons_buffalo_whr_hp_g54[] __initconst = {
        BCM47XX_GPIO_KEY(0, KEY_WPS_BUTTON),
        BCM47XX_GPIO_KEY(4, KEY_RESTART),
-       BCM47XX_GPIO_KEY(5, BTN_0), /* Router / AP mode swtich */
+       BCM47XX_GPIO_KEY(5, BTN_0), /* Router / AP mode switch */
 };
 
 static const struct gpio_keys_button
 
        }
 
        if (enable) {
-               /* reset switch core afer clock change */
+               /* reset switch core after clock change */
                bcm63xx_core_set_reset(BCM63XX_RESET_ENETSW, 1);
                msleep(10);
                bcm63xx_core_set_reset(BCM63XX_RESET_ENETSW, 0);
        bcm_hwclock_set(CKCTL_6368_SAR_EN, enable);
 
        if (enable) {
-               /* reset sar core afer clock change */
+               /* reset sar core after clock change */
                bcm63xx_core_set_reset(BCM63XX_RESET_SAR, 1);
                mdelay(1);
                bcm63xx_core_set_reset(BCM63XX_RESET_SAR, 0);
 
  * MIPS-specific debug support for pre-boot environment
  *
  * NOTE: putc() is board specific, if your board have a 16550 compatible uart,
- * please select SYS_SUPPORTS_ZBOOT_UART16550 for your machine. othewise, you
+ * please select SYS_SUPPORTS_ZBOOT_UART16550 for your machine. otherwise, you
  * need to implement your own putc().
  */
 #include <linux/compiler.h>
 
        efh.f_symptr = 0;
        efh.f_nsyms = 0;
        efh.f_opthdr = sizeof eah;
-       efh.f_flags = 0x100f;   /* Stripped, not sharable. */
+       efh.f_flags = 0x100f;   /* Stripped, not shareable. */
 
        memset(esecs, 0, sizeof esecs);
        strcpy(esecs[0].s_name, ".text");
 
 
 unsigned long long notrace sched_clock(void)
 {
-       /* 64-bit arithmatic can overflow, so use 128-bit.  */
+       /* 64-bit arithmetic can overflow, so use 128-bit.  */
        u64 t1, t2, t3;
        unsigned long long rv;
        u64 mult = clocksource_mips.mult;
 
                uint64_t v = _cvmx_bootvector_data[i];
 
                if (OCTEON_IS_OCTEON1PLUS() && (i == 0 || i == 7))
-                       v &= 0xffffffff00000000ull; /* KScratch not availble. */
+                       v &= 0xffffffff00000000ull; /* KScratch not available */
                cvmx_write_csr(CVMX_MIO_BOOT_LOC_ADR, i * 8);
                cvmx_write_csr(CVMX_MIO_BOOT_LOC_DAT, v);
        }
 
         * Convert !0 address_min and 0 address_max to special case of
         * range that specifies an exact memory block to allocate.  Do
         * this before other checks and adjustments so that this
-        * tranformation will be validated.
+        * transformation will be validated.
         */
        if (address_min && !address_max)
                address_max = address_min + req_size;
 
 }
 
 /*
- * Shutdown a queue a free it's command buffers to the FPA. The
+ * Shutdown a queue and free its command buffers to the FPA. The
  * hardware connected to the queue must be stopped before this
  * function is called.
  *
 
 /*
  * Return the command buffer to be written to. The purpose of this
- * function is to allow CVMX routine access t othe low level buffer
+ * function is to allow CVMX routine access to the low level buffer
  * for initial hardware setup. User applications should not call this
  * function directly.
  *
 
 /**
  * Shift long sequences of zeros into the QLM JTAG chain. It is
  * common to need to shift more than 32 bits of zeros into the
- * chain. This function is a convience wrapper around
+ * chain. This function is a convenience wrapper around
  * cvmx_helper_qlm_jtag_shift() to shift more than 32 bits of
  * zeros at a time.
  *
 
        /*
         * Each packet has a 12 bytes of interframe gap, an 8 byte
         * preamble, and a 4 byte CRC. These are not included in the
-        * per word count. Multiply by 8 to covert to bits and divide
+        * per word count. Multiply by 8 to convert to bits and divide
         * by 256 for limit granularity.
         */
        pko_mem_port_rate0.s.rate_pkt = (12 + 8 + 4) * 8 * tokens_per_bit / 256;
 
                         * zero.
                         */
 
-                       /* Asume that CS1 immediately follows. */
+                       /* Assume that CS1 immediately follows. */
                        mio_boot_reg_cfg.u64 =
                                cvmx_read_csr(CVMX_MIO_BOOT_REG_CFGX(cs + 1));
                        region1_base = mio_boot_reg_cfg.s.base << 16;
 
 /*
  * For 64bit kernels working with a 32bit ARC PROM pointer arguments
  * for ARC calls need to reside in CKEG0/1. But as soon as the kernel
- * switches to it's first kernel thread stack is set to an address in
+ * switches to its first kernel thread stack is set to an address in
  * XKPHYS, so anything on stack can't be used anymore. This is solved
- * by using a * static declartion variables are put into BSS, which is
+ * by using a * static declaration variables are put into BSS, which is
  * linked to a CKSEG0 address. Since this is only used on UP platforms
- * there is not spinlock needed
+ * there is no spinlock needed
  */
 #define O32_STATIC     static
 #else
 
 
 /*
  * mips_debugfs_dir corresponds to the "mips" directory at the top level
- * of the DebugFS hierarchy. MIPS-specific DebugFS entires should be
+ * of the DebugFS hierarchy. MIPS-specific DebugFS entries should be
  * placed beneath this directory.
  */
 extern struct dentry *mips_debugfs_dir;
 
  * address is not guaranteed to be usable directly as a virtual
  * address.
  *
- * This version of ioremap ensures that the memory is marked cachable by
+ * This version of ioremap ensures that the memory is marked cacheable by
  * the CPU.  Also enables full write-combining.         Useful for some
  * memory-like regions on I/O busses.
  */
  * address is not guaranteed to be usable directly as a virtual
  * address.
  *
- * This version of ioremap ensures that the memory is marked uncachable
+ * This version of ioremap ensures that the memory is marked uncacheable
  * but accelerated by means of write-combining feature. It is specifically
  * useful for PCIe prefetchable windows, which may vastly improve a
  * communications performance. If it was determined on boot stage, what
 
        if (!chan)
                return;
        /*
-        * set_dma_mode is only allowed to change endianess, direction,
+        * set_dma_mode is only allowed to change endianness, direction,
         * transfer size, device FIFO width, and coherency settings.
         * Make sure anything else is masked off.
         */
 
 /**
  * alchemy_gpio2_enable -  Activate GPIO2 block.
  *
- * The GPIO2 block must be enabled excplicitly to work.         On systems
+ * The GPIO2 block must be enabled explicitly to work.  On systems
  * where this isn't done by the bootloader, this macro can be used.
  */
 static inline void alchemy_gpio2_enable(void)
 
 #define ltq_sys1_w32_mask(clear, set, reg)   \
        ltq_sys1_w32((ltq_sys1_r32(reg) & ~(clear)) | (set), reg)
 
-/* allow the gpio and pinctrl drivers to talk to eachother */
+/* allow the gpio and pinctrl drivers to talk to each other */
 extern int pinctrl_falcon_get_range_size(int id);
 extern void pinctrl_falcon_add_gpio_range(struct pinctrl_gpio_range *range);
 
 
        /* period between two check. (Unit: S) */
        u8      adjust_period;
 
-       /* fan adjust usually depend on a temprature input */
+       /* fan adjust usually depend on a temperature input */
        get_temp_fun    depend_temp;
 
        /* up_step/down_step used when type is STEP_SPEED_POLICY */
 
 #define LOONGSON_CSR_NODECNT   0x408
 #define LOONGSON_CSR_CPUTEMP   0x428
 
-/* PerCore CSR, only accessable by local cores */
+/* PerCore CSR, only accessible by local cores */
 #define LOONGSON_CSR_IPI_STATUS        0x1000
 #define LOONGSON_CSR_IPI_EN    0x1004
 #define LOONGSON_CSR_IPI_SET   0x1008
 
  * The kernel is still located in 0x80000000(kseg0). However,
  * the physical mask has been shifted to 0x80000000 which exploits the alias
  * on the Malta board. As a result of which, we override the __pa_symbol
- * to peform direct mapping from virtual to physical addresses. In other
+ * to perform direct mapping from virtual to physical addresses. In other
  * words, the 0x80000000 virtual address maps to 0x80000000 physical address
  * which in turn aliases to 0x0. We do this in order to be able to use a flat
  * 2GB of memory (0x80000000 - 0xffffffff) so we can avoid the I/O hole in
  * 0x10000000 - 0x1fffffff.
  * The last 64KB of physical memory are reserved for correct HIGHMEM
- * macros arithmetics.
+ * macros arithmetic.
  *
  */
 
 
  */
 
 /* Revision 1.48 autogenerated on 08/17/99 15:20:01 */
-/* This bonito64 version editted from bonito.h Revision 1.48 on 11/09/00 */
+/* This bonito64 version edited from bonito.h Revision 1.48 on 11/09/00 */
 
 #ifndef _ASM_MIPS_BOARDS_BONITO64_H
 #define _ASM_MIPS_BOARDS_BONITO64_H
 
  *                              the CPC
  *
  * Returns the default physical base address of the Cluster Power Controller
- * memory mapped registers. This is platform dependant & must therefore be
+ * memory mapped registers. This is platform dependent & must therefore be
  * implemented per-platform.
  */
 extern phys_addr_t mips_cpc_default_phys_base(void);
 
 
 /*
  * R4640/R4650 cp0 register names.  These registers are listed
- * here only for completeness; without MMU these CPUs are not useable
+ * here only for completeness; without MMU these CPUs are not usable
  * by Linux.  A future ELKS port might take make Linux run on them
  * though ...
  */
 #define EXCCODE_THREAD         25      /* Thread exceptions (MT) */
 #define EXCCODE_DSPDIS         26      /* DSP disabled exception */
 #define EXCCODE_GE             27      /* Virtualized guest exception (VZ) */
-#define EXCCODE_CACHEERR       30      /* Parity/ECC occured on a core */
+#define EXCCODE_CACHEERR       30      /* Parity/ECC occurred on a core */
 
 /* Implementation specific trap codes used by MIPS cores */
 #define MIPS_EXCCODE_TLBPAR    16      /* TLB parity error exception */
 
 
        /*
         * flags indicating various configuration options.  These
-        * flags supercede the 'flags' variable and should be used
+        * flags supersede the 'flags' variable and should be used
         * instead if available.
         */
        uint32_t config_flags;
 
 /**
  * This structure contains the global state of all command queues.
  * It is stored in a bootmem named block and shared by all
- * applications running on Octeon. Tickets are stored in a differnet
+ * applications running on Octeon. Tickets are stored in a different
  * cache line that queue information to reduce the contention on the
  * ll/sc used to get a ticket. If this is not the case, the update
  * of queue state causes the ll/sc to fail quite often.
                                                  int pool_size);
 
 /**
- * Shutdown a queue a free it's command buffers to the FPA. The
+ * Shutdown a queue and free its command buffers to the FPA. The
  * hardware connected to the queue must be stopped before this
  * function is called.
  *
 
 /**
  * Return the command buffer to be written to. The purpose of this
- * function is to allow CVMX routine access t othe low level buffer
+ * function is to allow CVMX routine access to the low level buffer
  * for initial hardware setup. User applications should not call this
  * function directly.
  *
 
 } cvmx_pko_status_t;
 
 /**
- * This enumeration represents the differnet locking modes supported by PKO.
+ * This enumeration represents the different locking modes supported by PKO.
  */
 typedef enum {
        /*
 
  * This function does NOT wait for previous tag switches to complete,
  * so the caller must ensure that there is not a pending tag switch.
  *
- * @wait:   When set, call stalls until work becomes avaiable, or times out.
+ * @wait:   When set, call stalls until work becomes available, or times out.
  *              If not set, returns immediately.
  *
  * Returns: the WQE pointer from POW. Returns NULL if no work
  * This function waits for any previous tag switch to complete before
  * requesting the new work.
  *
- * @wait:   When set, call stalls until work becomes avaiable, or times out.
+ * @wait:   When set, call stalls until work becomes available, or times out.
  *              If not set, returns immediately.
  *
  * Returns: the WQE pointer from POW. Returns NULL if no work
 
 #define OM_CHECK_SUBMODEL        0x02000000
 /* Match all models previous than the one specified */
 #define OM_MATCH_PREVIOUS_MODELS  0x04000000
-/* Ignores the minor revison on newer parts */
+/* Ignores the minor revision on newer parts */
 #define OM_IGNORE_MINOR_REVISION  0x08000000
 #define OM_FLAG_MASK             0xff000000
 
 #define OCTEON_CN52XX_PASS2    OCTEON_CN52XX_PASS2_X
 
 /*
- * CN3XXX models with old revision enconding
+ * CN3XXX models with old revision encoding
  */
 #define OCTEON_CN38XX_PASS1    0x000d0000
 #define OCTEON_CN38XX_PASS2    0x000d0001
 
        if (IS_ENABLED(CONFIG_64BIT)) {
                /*
                 * For MIPS64 the virtual address may either be in one of
-                * the compatibility segements ckseg0 or ckseg1, or it may
+                * the compatibility segments ckseg0 or ckseg1, or it may
                 * be in xkphys.
                 */
                return x < CKSEG0 ? XPHYSADDR(x) : CPHYSADDR(x);
 
 #ifdef CONFIG_PCI_DRIVERS_LEGACY
 
 /*
- * Each pci channel is a top-level PCI bus seem by CPU.         A machine  with
+ * Each PCI channel is a top-level PCI bus seem by CPU.         A machine with
  * multiple PCI channels may have multiple PCI host controllers or a
  * single controller supporting multiple channels.
  */
 
  * The final layouts of the PTE bits are:
  *
  *   64-bit, R1 or earlier:     CCC D V G [S H] M A W R P
- *   32-bit, R1 or earler:      CCC D V G M A W R P
+ *   32-bit, R1 or earlier:     CCC D V G M A W R P
  *   64-bit, R2 or later:       CCC D V G RI/R XI [S H] M A W P
  *   32-bit, R2 or later:       CCC D V G RI/R XI M A W P
  */
 
        volatile u32 lbursttp;  /* Time period for long bursts */
 
        /* MC chip can drive up to 4 bank 4 SIMMs each. All SIMMs in bank must
-        * be the same size. The size encoding for supported SIMMs is bellow */
+        * be the same size. The size encoding for supported SIMMs is below */
        u32 _unused11[9];
        volatile u32 mconfig0;  /* Memory config register zero */
        u32 _unused12;
 
 /*
  * TBD - Allocation issues.
  *
- * Do we need to Mark off sepatate heaps for lboard_t, rboard_t, component,
+ * Do we need to Mark off separate heaps for lboard_t, rboard_t, component,
  * errinfo and allocate from them, or have a single heap and allocate all
  * structures from it. Debug is easier in the former method since we can
  * dump all similar structs in one command, but there will be lots of holes,
 
  *
  * Ordering barriers can be more efficient than completion barriers, since:
  *
- *   a) Ordering barriers only require memory access instructions which preceed
+ *   a) Ordering barriers only require memory access instructions which precede
  *      them in program order (older instructions) to reach a point in the
  *      load/store datapath beyond which reordering is not possible before
  *      allowing memory access instructions which follow them (younger
 
        unsigned long           flags;          /* low level flags */
        unsigned long           tp_value;       /* thread pointer */
        __u32                   cpu;            /* current CPU */
-       int                     preempt_count;  /* 0 => preemptable, <0 => BUG */
+       int                     preempt_count;  /* 0 => preemptible, <0 => BUG */
        struct pt_regs          *regs;
        long                    syscall;        /* syscall number */
 };
 
  *
  * There is a suggested workaround and also the erratum can't strike if
  * the compare interrupt isn't being used as the clock source device.
- * However for now the implementaton of this function doesn't get these
+ * However for now the implementation of this function doesn't get these
  * fine details right.
  */
 static inline int can_use_mips_counter(unsigned int prid)
 
 #else
        /*
         * Get the base load address of the VDSO. We have to avoid generating
-        * relocations and references to the GOT because ld.so does not peform
+        * relocations and references to the GOT because ld.so does not perform
         * relocations on the VDSO. We use the current offset from the VDSO base
         * and perform a PC-relative branch which gives the absolute address in
         * ra, and take the difference. The assembler chokes on
 
 #define MADV_HUGEPAGE  14              /* Worth backing with hugepages */
 #define MADV_NOHUGEPAGE 15             /* Not worth backing with hugepages */
 
-#define MADV_DONTDUMP  16              /* Explicity exclude from the core dump,
+#define MADV_DONTDUMP  16              /* Explicitly exclude from core dump,
                                           overrides the coredump filter bits */
 #define MADV_DODUMP    17              /* Clear the MADV_NODUMP flag */
 
 
        unsigned long  __unused5;
 };
 #else
-#warning no endianess set
+#warning no endianness set
 #endif
 
 #endif /* _ASM_MSGBUF_H */
 
                 * This processor doesn't have an MMU, so it's not
                 * "real easy" to run Linux on it. It is left purely
                 * for documentation.  Commented out because it shares
-                * it's c0_prid id number with the TX3900.
+                * its c0_prid id number with the TX3900.
                 */
                c->cputype = CPU_R4650;
                __cpu_name[cpu] = "R4650";
 
  * one; putting breakpoint on top of atomic ll/sc pair is bad idea;
  * so we need to prevent it and refuse kprobes insertion for such
  * instructions; cannot do much about breakpoint in the middle of
- * ll/sc pair; it is upto user to avoid those places
+ * ll/sc pair; it is up to user to avoid those places
  */
 static int insn_has_ll_or_sc(union mips_instruction insn)
 {
 
                }
 #endif /* CONFIG_USE_OF */
 
-               /* Copy the kernel to it's new location */
+               /* Copy the kernel to its new location */
                memcpy(loc_new, &_text, kernel_length);
 
                /* Perform relocations on the new kernel */
 
 done:
 #ifdef CONFIG_SMP
        /* kexec_flag reset is signal to other CPUs what kernel
-          was moved to it's location. Note - we need relocated address
+          was moved to its location. Note - we need relocated address
           of kexec_flag.  */
 
        bal             1f
 
        /*
         * Board specific code or command line parser should have
         * already set up initrd_start and initrd_end. In these cases
-        * perfom sanity checks and use them if all looks good.
+        * perform sanity checks and use them if all looks good.
         */
        if (!initrd_start || initrd_end <= initrd_start)
                goto disable;
 
                return (void __user __force *)(-1UL);
 
        /*
-        * FPU emulator may have it's own trampoline active just
+        * FPU emulator may have its own trampoline active just
         * above the user stack, 16-bytes before the next lowest
         * 16 byte boundary.  Try to avoid trashing it.
         */
 
                set_except_vector(i, handle_reserved);
 
        /*
-        * Copy the EJTAG debug exception vector handler code to it's final
+        * Copy the EJTAG debug exception vector handler code to its final
         * destination.
         */
        if (cpu_has_ejtag && board_ejtag_handler_setup)
 
  * Copyright (C) 2004, 2005 MIPS Technologies, Inc.  All rights reserved.
  * Copyright (C) 2013 Imagination Technologies Ltd.
  *
- * VPE spport module for loading a MIPS SP program into VPE1. The SP
+ * VPE support module for loading a MIPS SP program into VPE1. The SP
  * environment is rather simple since there are no TLBs. It needs
- * to be relocatable (or partiall linked). Initialize your stack in
+ * to be relocatable (or partially linked). Initialize your stack in
  * the startup-code. The loader looks for the symbol __start and sets
  * up the execution to resume from there. To load and run, simply do
  * a cat SP 'binary' to the /dev/vpe1 device.
 
  * to be used for a period of time, but the exact ktime corresponding to the
  * final Count that must be restored is not known.
  *
- * It is gauranteed that a timer interrupt immediately after restore will be
+ * It is guaranteed that a timer interrupt immediately after restore will be
  * handled, but not if CP0_Compare is exactly at @count. That case should
  * already be handled when the hardware timer state is saved.
  *
 
 {
        struct cpuinfo_mips *c = ¤t_cpu_data;
 
-       /* Only 2F revision and it's successors support CPUFreq */
+       /* Only 2F revision and its successors support CPUFreq */
        if ((c->processor_id & PRID_REV_MASK) >= PRID_REV_LOONGSON2F)
                return platform_device_register(&loongson2_cpufreq_device);
 
 
 }
 
 /*
- * Setup the PC, SP, and GP of a secondary processor and start it runing!
+ * Setup the PC, SP, and GP of a secondary processor and start it running!
  */
 static int loongson3_boot_secondary(int cpu, struct task_struct *idle)
 {
 
 
        /*
         * c0_status.cu=0 specifies that updates by the sc instruction use
-        * the coherency mode specified by the TLB; 1 means cachable
+        * the coherency mode specified by the TLB; 1 means cacheable
         * coherent update on write will be used.  Not all processors have
         * this bit and; some wire it to zero, others like Toshiba had the
         * silly idea of putting something else there ...
 
         * This is a very bad place to be.  Our cache error
         * detection has triggered.  If we have write-back data
         * in the cache, we may not be able to recover.  As a
-        * first-order desperate measure, turn off KSEG0 cacheing.
+        * first-order desperate measure, turn off KSEG0 caching.
         */
        mfc0    k0,CP0_CONFIG
        li      k1,~CONF_CM_CMASK
 
        int idx, pid;
 
        /*
-        * Handle debugger faulting in for debugee.
+        * Handle debugger faulting in for debuggee.
         */
        if (current->active_mm != vma->vm_mm)
                return;
 
        int idx, pid;
 
        /*
-        * Handle debugger faulting in for debugee.
+        * Handle debugger faulting in for debuggee.
         */
        if (current->active_mm != vma->vm_mm)
                return;
 
 
        if (check_for_high_segbits) {
                /*
-                * The kernel currently implicitely assumes that the
+                * The kernel currently implicitly assumes that the
                 * MIPS SEGBITS parameter for the processor is
                 * (PGDIR_SHIFT+PGDIR_BITS) or less, and will never
                 * allocate virtual addresses outside the maximum
 /*
  * Check if PTE is present, if not then jump to LABEL. PTR points to
  * the page table where this PTE is located, PTE will be re-loaded
- * with it's original value.
+ * with its original value.
  */
 static void
 build_pte_present(u32 **p, struct uasm_reloc **r,
 
 /*
  * Mapping of 64-bit eBPF registers to 32-bit native MIPS registers.
  *
- * 1) Native register pairs are ordered according to CPU endiannes, following
+ * 1) Native register pairs are ordered according to CPU endianness, following
  *    the MIPS convention for passing 64-bit arguments and return values.
  * 2) The eBPF return value, arguments and callee-saved registers are mapped
  *    to their native MIPS equivalents.
 
                 */
 #ifdef CONFIG_CS5536
                /* cs5536_pci_conf_read4/write4() will call _rdmsr/_wrmsr() to
-                * access the regsters PCI_MSR_ADDR, PCI_MSR_DATA_LO,
+                * access the registers PCI_MSR_ADDR, PCI_MSR_DATA_LO,
                 * PCI_MSR_DATA_HI, which is bigger than PCI_MSR_CTRL, so, it
                 * will not go this branch, but the others. so, no calling dead
                 * loop here.
 
 
        /* we can't ioremap the entire pci config space because it's too large,
         * nor can we dynamically ioremap it because some drivers use the
-        * PCI config routines from within atomic contex and that becomes a
+        * PCI config routines from within atomic context and that becomes a
         * problem in get_vm_area().  Instead we use one wired TLB entry to
         * handle all config accesses for all busses.
         */
 
  * the CFG_SEL bit in the PCI_MISC_CONFIG register.
  *
  * Devices on the bus can perform DMA requests via chip BAR1. PCI host
- * controller BARs are programmend as if an external device is programmed.
+ * controller BARs are programmed as if an external device is programmed.
  * Which means that during configuration, IDSEL pin of the chip should be
  * asserted.
  *
 
                temp_buffer &= ~0xf0000;
        /* enable internal arbiter */
        temp_buffer |= (1 << INTERNAL_ARB_ENABLE_BIT);
-       /* enable internal PCI master reqest */
+       /* enable internal PCI master request */
        temp_buffer &= (~(3 << PCI_MASTER0_REQ_MASK_2BITS));
 
        /* enable EBU request */
 
        ctl_status.s.timer = 1;
        cvmx_write_csr(CVMX_NPI_CTL_STATUS, ctl_status.u64);
 
-       /* Deassert PCI reset and advertize PCX Host Mode Device Capability
+       /* Deassert PCI reset and advertise PCX Host Mode Device Capability
           (64b) */
        cvmx_write_csr(CVMX_CIU_SOFT_PRST, 0x4);
        cvmx_read_csr(CVMX_CIU_SOFT_PRST);
 
  *
  * The function is complicated by the ultimate brokenness of the IOC3 chip
  * which is used in SGI systems.  The IOC3 can only handle 32-bit PCI
- * accesses and does only decode parts of it's address space.
+ * accesses and does only decode parts of its address space.
  */
 static int pci_conf0_read_config(struct pci_bus *bus, unsigned int devfn,
                                 int where, int size, u32 *value)
 
                        in_fif_p_count = dbg_data.s.data & 0xff;
                } while (in_fif_p_count != ((old_in_fif_p_count+1) & 0xff));
 
-               /* Update in_fif_p_count for it's offset with respect to out_p_count */
+               /* Update in_fif_p_count for its offset with respect to out_p_count */
                in_fif_p_count = (in_fif_p_count + in_p_offset) & 0xff;
 
                /* Read the OUT_P_COUNT from the debug select */
 
                 * mips_cm_probe() wipes out bootloader
                 * config for CM regions and we have to configure them
                 * again. This SoC cannot talk to pamlbus devices
-                * witout proper iocu region set up.
+                * without proper iocu region set up.
                 *
                 * FIXME: it would be better to do this with values
                 * from DT, but we need this very early because
 
        unsigned char bist;
        int ret;
 
-       /* Do build-in self test */
+       /* Do built-in self test */
        ret = pci_read_config_byte(dev, PCI_BIST, &bist);
        if ((ret != PCIBIOS_SUCCESSFUL) || !(bist & PCI_BIST_CAPABLE))
                return;