*     handle_edge_irq - edge type IRQ handler
  *     @desc:  the interrupt description structure for this irq
  *
- *     Interrupt occures on the falling and/or rising edge of a hardware
+ *     Interrupt occurs on the falling and/or rising edge of a hardware
  *     signal. The occurrence is latched into the irq controller hardware
  *     and must be acked in order to be reenabled. After the ack another
  *     interrupt can happen on the same source even before the first one
  * @dest:      The affinity mask to set
  * @force:     Flag to enforce setting (disable online checks)
  *
- * Conditinal, as the underlying parent chip might not implement it.
+ * Conditional, as the underlying parent chip might not implement it.
  */
 int irq_chip_set_affinity_parent(struct irq_data *data,
                                 const struct cpumask *dest, bool force)
 #endif
 
 /**
- * irq_chip_compose_msi_msg - Componse msi message for a irq chip
+ * irq_chip_compose_msi_msg - Compose msi message for a irq chip
  * @data:      Pointer to interrupt specific data
  * @msg:       Pointer to the MSI message
  *
 
  * @irq:       linux irq number to be destroyed
  * @dest:      cpumask of cpus which should have the IPI removed
  *
- * The IPIs allocated with irq_reserve_ipi() are retuerned to the system
+ * The IPIs allocated with irq_reserve_ipi() are returned to the system
  * destroying all virqs associated with them.
  *
  * Return 0 on success or error code on failure.
 
 
 /**
  *     irq_set_thread_affinity - Notify irq threads to adjust affinity
- *     @desc:          irq descriptor which has affitnity changed
+ *     @desc:          irq descriptor which has affinity changed
  *
  *     We just set IRQTF_AFFINITY and delegate the affinity setting
  *     to the interrupt thread itself. We can not call
 
 /*
  * Interrupts explicitly requested as threaded interrupts want to be
- * preemtible - many of them need to sleep and wait for slow busses to
+ * preemptible - many of them need to sleep and wait for slow busses to
  * complete.
  */
 static irqreturn_t irq_thread_fn(struct irq_desc *desc,
  *     irq_get_irqchip_state - returns the irqchip state of a interrupt.
  *     @irq: Interrupt line that is forwarded to a VM
  *     @which: One of IRQCHIP_STATE_* the caller wants to know about
- *     @state: a pointer to a boolean where the state is to be storeed
+ *     @state: a pointer to a boolean where the state is to be stored
  *
  *     This call snapshots the internal irqchip state of an
  *     interrupt, returning into @state the bit corresponding to
 
  * irq_matrix_remove_reserved - Remove interrupt reservation
  * @m:         Matrix pointer
  *
- * This is merily a book keeping call. It decrements the number of globally
+ * This is merely a book keeping call. It decrements the number of globally
  * reserved interrupt bits. This is used to undo irq_matrix_reserve() when the
  * interrupt was never in use and a real vector allocated, which undid the
  * reservation.
 
 
 /**
  * irq_fixup_move_pending - Cleanup irq move pending from a dying CPU
- * @desc:              Interrupt descpriptor to clean up
+ * @desc:              Interrupt descriptor to clean up
  * @force_clear:       If set clear the move pending bit unconditionally.
  *                     If not set, clear it only when the dying CPU is the
  *                     last one in the pending mask.
 
        if (!try_retrigger(desc))
                err = irq_sw_resend(desc);
 
-       /* If the retrigger was successfull, mark it with the REPLAY bit */
+       /* If the retrigger was successful, mark it with the REPLAY bit */
        if (!err)
                desc->istate |= IRQS_REPLAY;
        return err;
 
  * 2. Log interval
  *
  * We saw the irq timings allow to compute the interval of the
- * occurrences for a specific interrupt. We can reasonibly assume the
+ * occurrences for a specific interrupt. We can reasonably assume the
  * longer is the interval, the higher is the error for the next event
  * and we can consider storing those interval values into an array
  * where each slot in the array correspond to an interval at the power
         * Copy the content of the circular buffer into another buffer
         * in order to linearize the buffer instead of dealing with
         * wrapping indexes and shifted array which will be prone to
-        * error and extremelly difficult to debug.
+        * error and extremely difficult to debug.
         */
        for (i = 0; i < count; i++) {
                int index = (start + i) & IRQ_TIMINGS_MASK;
  *      If more than the array size interrupts happened during the
  *      last busy/idle cycle, the index wrapped up and we have to
  *      begin with the next element in the array which is the last one
- *      in the sequence, otherwise it is a the index 0.
+ *      in the sequence, otherwise it is at the index 0.
  *
  * - have an indication of the interrupts activity on this CPU
  *   (eg. irq/sec)