e->out_dev = attr.out_dev;
        e->route_dev_ifindex = attr.route_dev->ifindex;
 
-       /* It's importent to add the neigh to the hash table before checking
+       /* It's important to add the neigh to the hash table before checking
         * the neigh validity state. So if we'll get a notification, in case the
         * neigh changes it's validity state, we would find the relevant neigh
         * in the hash.
 
        /* Create a separate SQ, so that when the buff pool is disabled, we could
         * close this SQ safely and stop receiving CQEs. In other case, e.g., if
         * the XDPSQ was used instead, we might run into trouble when the buff pool
-        * is disabled and then reenabled, but the SQ continues receiving CQEs
+        * is disabled and then re-enabled, but the SQ continues receiving CQEs
         * from the old buff pool.
         */
        err = mlx5e_open_xdpsq(c, params, &cparam->xdp_sq, pool, &c->xsksq, true);
 
 #include "en.h"
 
 /* mlx5e global resources should be placed in this file.
- * Global resources are common to all the netdevices crated on the same nic.
+ * Global resources are common to all the netdevices created on the same nic.
  */
 
 void mlx5e_mkey_set_relaxed_ordering(struct mlx5_core_dev *mdev, void *mkc)
 
         */
        refcount_t refcnt;
 
-       /* Save the last reported time offloaded trafic pass over one of the
+       /* Save the last reported time offloaded traffic pass over one of the
         * neigh hash entry flows. Use it to periodically update the neigh
         * 'used' value and avoid neigh deleting by the kernel.
         */
 
        [MARK_TO_REG] = mark_to_reg_ct,
        [LABELS_TO_REG] = labels_to_reg_ct,
        [FTEID_TO_REG] = fteid_to_reg_ct,
-       /* For NIC rules we store the retore metadata directly
+       /* For NIC rules we store the restore metadata directly
         * into reg_b that is passed to SW since we don't
         * jump between steering domains.
         */
                        spec->match_criteria_enable |= MLX5_MATCH_MISC_PARAMETERS_3;
                }
        }
-       /* Currenlty supported only for MPLS over UDP */
+       /* Currently supported only for MPLS over UDP */
        if (flow_rule_match_key(rule, FLOW_DISSECTOR_KEY_MPLS) &&
            !netif_is_bareudp(filter_dev)) {
                NL_SET_ERR_MSG_MOD(extack,
 
 /**
  * mlx5_eswitch_enable - Enable eswitch
  * @esw:       Pointer to eswitch
- * @num_vfs:   Enable eswitch swich for given number of VFs.
+ * @num_vfs:   Enable eswitch switch for given number of VFs.
  *             Caller must pass num_vfs > 0 when enabling eswitch for
  *             vf vports.
  * mlx5_eswitch_enable() returns 0 on success or error code on failure.
 
 static int forward_event(struct notifier_block *, unsigned long, void *);
 
 static struct mlx5_nb events_nbs_ref[] = {
-       /* Events to be proccessed by mlx5_core */
+       /* Events to be processed by mlx5_core */
        {.nb.notifier_call = any_notifier,  .event_type = MLX5_EVENT_TYPE_NOTIFY_ANY },
        {.nb.notifier_call = temp_warn,     .event_type = MLX5_EVENT_TYPE_TEMP_WARN_EVENT },
        {.nb.notifier_call = port_module,   .event_type = MLX5_EVENT_TYPE_PORT_MODULE_EVENT },
 
        mutex_lock(&fpga_xfrm->lock);
 
        if (!fpga_xfrm->sa_ctx)
-               /* Unbounded xfrm, chane only sw attrs */
+               /* Unbounded xfrm, change only sw attrs */
                goto change_sw_xfrm_attrs;
 
        /* copy original hw sa */
 
                acc_level_ns = set_prio_attrs_in_ns(ns, acc_level);
 
                /* If this a prio with chains, and we can jump from one chain
-                * (namepsace) to another, so we accumulate the levels
+                * (namespace) to another, so we accumulate the levels
                 */
                if (prio->node.type == FS_TYPE_PRIO_CHAINS)
                        acc_level = acc_level_ns;
 
 
        /* The reset only needs to be issued by one PF. The health buffer is
         * shared between all functions, and will be cleared during a reset.
-        * Check again to avoid a redundant 2nd reset. If the fatal erros was
+        * Check again to avoid a redundant 2nd reset. If the fatal errors was
         * PCI related a reset won't help.
         */
        fatal_error = mlx5_health_check_fatal_sensors(dev);
 
                } else {
                        ptp_event.type = PTP_CLOCK_EXTTS;
                }
-               /* TODOL clock->ptp can be NULL if ptp_clock_register failes */
+               /* TODOL clock->ptp can be NULL if ptp_clock_register fails */
                ptp_clock_event(clock->ptp, &ptp_event);
                break;
        case PTP_PF_PEROUT:
 
 
 struct mlx5_vxlan {
        struct mlx5_core_dev            *mdev;
-       /* max_num_ports is usuallly 4, 16 buckets is more than enough */
+       /* max_num_ports is usually 4, 16 buckets is more than enough */
        DECLARE_HASHTABLE(htable, 4);
        struct mutex                    sync_lock; /* sync add/del port HW operations */
 };
 
 
 #define MLX5_SFS_PER_CTRL_IRQ 64
 #define MLX5_IRQ_CTRL_SF_MAX 8
-/* min num of vectores for SFs to be enabled */
+/* min num of vectors for SFs to be enabled */
 #define MLX5_IRQ_VEC_COMP_BASE_SF 2
 
 #define MLX5_EQ_SHARE_IRQ_MAX_COMP (8)
                return;
 
        /* There are cases where IRQs still will be in used when we reaching
-        * to here. Hence, making sure all the irqs are realeased.
+        * to here. Hence, making sure all the irqs are released.
         */
        irq_pools_destroy(table);
        pci_free_irq_vectors(dev->pdev);
 
                return;
 
        /* Balances with refcount_set; drop the reference so that new user cmd cannot start
-        * and new vhca event handler cannnot run.
+        * and new vhca event handler cannot run.
         */
        mlx5_sf_table_put(table);
        wait_for_completion(&table->disable_complete);
 
 struct mlx5_mkey_seg {
        /* This is a two bit field occupying bits 31-30.
         * bit 31 is always 0,
-        * bit 30 is zero for regular MRs and 1 (e.g free) for UMRs that do not have tanslation
+        * bit 30 is zero for regular MRs and 1 (e.g free) for UMRs that do not have translation
         */
        u8              status;
        u8              pcie_control;
 
        /* end: qp staff */
 
        /* start: alloc staff */
-       /* protect buffer alocation according to numa node */
+       /* protect buffer allocation according to numa node */
        struct mutex            alloc_mutex;
        int                     numa_node;
 
 }
 
 /* Async-atomic event notifier used by mlx5 core to forward FW
- * evetns recived from event queue to mlx5 consumers.
+ * evetns received from event queue to mlx5 consumers.
  * Optimise event queue dipatching.
  */
 int mlx5_notifier_register(struct mlx5_core_dev *dev, struct notifier_block *nb);