fdb_add:
        /* SRIOV is enabled: Forward UC MAC to vport */
-       if (esw->fdb_table.legacy.fdb && esw->mode == SRIOV_LEGACY)
+       if (esw->fdb_table.legacy.fdb && esw->mode == MLX5_ESWITCH_LEGACY)
                vaddr->flow_rule = esw_fdb_set_vport_rule(esw, mac, vport);
 
        esw_debug(esw->dev, "\tADDED UC MAC: vport[%d] %pM fr(%p)\n",
                               flags);
 
        /* Only legacy mode needs ACLs */
-       if (esw->mode == SRIOV_LEGACY) {
+       if (esw->mode == MLX5_ESWITCH_LEGACY) {
                esw_vport_ingress_config(esw, vport);
                esw_vport_egress_config(esw, vport);
        }
        esw_debug(esw->dev, "Enabling VPORT(%d)\n", vport_num);
 
        /* Create steering drop counters for ingress and egress ACLs */
-       if (vport_num && esw->mode == SRIOV_LEGACY)
+       if (vport_num && esw->mode == MLX5_ESWITCH_LEGACY)
                esw_vport_create_drop_counters(vport);
 
        /* Restore old vport configuration */
        vport->enabled_events = 0;
        esw_vport_disable_qos(esw, vport);
        if (esw->manager_vport != vport_num &&
-           esw->mode == SRIOV_LEGACY) {
+           esw->mode == MLX5_ESWITCH_LEGACY) {
                mlx5_modify_vport_admin_state(esw->dev,
                                              MLX5_VPORT_STATE_OP_MOD_ESW_VPORT,
                                              vport_num, 1,
 /* Public E-Switch API */
 #define ESW_ALLOWED(esw) ((esw) && MLX5_ESWITCH_MANAGER((esw)->dev))
 
-int mlx5_eswitch_enable_sriov(struct mlx5_eswitch *esw, int nvfs, int mode)
+int mlx5_eswitch_enable(struct mlx5_eswitch *esw, int nvfs, int mode)
 {
        struct mlx5_vport *vport;
        int total_nvports = 0;
 
        if (!ESW_ALLOWED(esw) ||
            !MLX5_CAP_ESW_FLOWTABLE_FDB(esw->dev, ft_support)) {
-               esw_warn(esw->dev, "E-Switch FDB is not supported, aborting ...\n");
+               esw_warn(esw->dev, "FDB is not supported, aborting ...\n");
                return -EOPNOTSUPP;
        }
 
        if (!MLX5_CAP_ESW_INGRESS_ACL(esw->dev, ft_support))
-               esw_warn(esw->dev, "E-Switch ingress ACL is not supported by FW\n");
+               esw_warn(esw->dev, "ingress ACL is not supported by FW\n");
 
        if (!MLX5_CAP_ESW_EGRESS_ACL(esw->dev, ft_support))
-               esw_warn(esw->dev, "E-Switch engress ACL is not supported by FW\n");
+               esw_warn(esw->dev, "engress ACL is not supported by FW\n");
 
-       esw_info(esw->dev, "E-Switch enable SRIOV: nvfs(%d) mode (%d)\n", nvfs, mode);
-
-       if (mode == SRIOV_OFFLOADS) {
+       if (mode == MLX5_ESWITCH_OFFLOADS) {
                if (mlx5_core_is_ecpf_esw_manager(esw->dev))
                        total_nvports = esw->total_vports;
                else
 
        mlx5_lag_update(esw->dev);
 
-       if (mode == SRIOV_LEGACY) {
+       if (mode == MLX5_ESWITCH_LEGACY) {
                err = esw_create_legacy_table(esw);
                if (err)
                        goto abort;
        if (err)
                esw_warn(esw->dev, "Failed to create eswitch TSAR");
 
-       /* Don't enable vport events when in SRIOV_OFFLOADS mode, since:
+       /* Don't enable vport events when in MLX5_ESWITCH_OFFLOADS mode, since:
         * 1. L2 table (MPFS) is programmed by PF/VF representors netdevs set_rx_mode
         * 2. FDB/Eswitch is programmed by user space tools
         */
-       enabled_events = (mode == SRIOV_LEGACY) ? SRIOV_VPORT_EVENTS : 0;
+       enabled_events = (mode == MLX5_ESWITCH_LEGACY) ? SRIOV_VPORT_EVENTS : 0;
 
        /* Enable PF vport */
        vport = mlx5_eswitch_get_vport(esw, MLX5_VPORT_PF);
        mlx5_esw_for_each_vf_vport(esw, i, vport, nvfs)
                esw_enable_vport(esw, vport, enabled_events);
 
-       if (mode == SRIOV_LEGACY) {
+       if (mode == MLX5_ESWITCH_LEGACY) {
                MLX5_NB_INIT(&esw->nb, eswitch_vport_event, NIC_VPORT_CHANGE);
                mlx5_eq_notifier_register(esw->dev, &esw->nb);
        }
 
-       esw_info(esw->dev, "SRIOV enabled: active vports(%d)\n",
-                esw->enabled_vports);
+       esw_info(esw->dev, "Enable: mode(%s), nvfs(%d), active vports(%d)\n",
+                mode == MLX5_ESWITCH_LEGACY ? "LEGACY" : "OFFLOADS",
+                nvfs, esw->enabled_vports);
+
        return 0;
 
 abort:
-       esw->mode = SRIOV_NONE;
+       esw->mode = MLX5_ESWITCH_NONE;
 
-       if (mode == SRIOV_OFFLOADS) {
+       if (mode == MLX5_ESWITCH_OFFLOADS) {
                mlx5_reload_interface(esw->dev, MLX5_INTERFACE_PROTOCOL_IB);
                mlx5_reload_interface(esw->dev, MLX5_INTERFACE_PROTOCOL_ETH);
        }
        return err;
 }
 
-void mlx5_eswitch_disable_sriov(struct mlx5_eswitch *esw)
+void mlx5_eswitch_disable(struct mlx5_eswitch *esw)
 {
        struct esw_mc_addr *mc_promisc;
        struct mlx5_vport *vport;
        int old_mode;
        int i;
 
-       if (!ESW_ALLOWED(esw) || esw->mode == SRIOV_NONE)
+       if (!ESW_ALLOWED(esw) || esw->mode == MLX5_ESWITCH_NONE)
                return;
 
-       esw_info(esw->dev, "disable SRIOV: active vports(%d) mode(%d)\n",
-                esw->enabled_vports, esw->mode);
+       esw_info(esw->dev, "Disable: mode(%s), nvfs(%d), active vports(%d)\n",
+                esw->mode == MLX5_ESWITCH_LEGACY ? "LEGACY" : "OFFLOADS",
+                esw->dev->priv.sriov.num_vfs, esw->enabled_vports);
 
        mc_promisc = &esw->mc_promisc;
 
-       if (esw->mode == SRIOV_LEGACY)
+       if (esw->mode == MLX5_ESWITCH_LEGACY)
                mlx5_eq_notifier_unregister(esw->dev, &esw->nb);
 
        mlx5_esw_for_all_vports(esw, i, vport)
 
        esw_destroy_tsar(esw);
 
-       if (esw->mode == SRIOV_LEGACY)
+       if (esw->mode == MLX5_ESWITCH_LEGACY)
                esw_destroy_legacy_table(esw);
-       else if (esw->mode == SRIOV_OFFLOADS)
+       else if (esw->mode == MLX5_ESWITCH_OFFLOADS)
                esw_offloads_cleanup(esw);
 
        old_mode = esw->mode;
-       esw->mode = SRIOV_NONE;
+       esw->mode = MLX5_ESWITCH_NONE;
 
        mlx5_lag_update(esw->dev);
 
-       if (old_mode == SRIOV_OFFLOADS) {
+       if (old_mode == MLX5_ESWITCH_OFFLOADS) {
                mlx5_reload_interface(esw->dev, MLX5_INTERFACE_PROTOCOL_IB);
                mlx5_reload_interface(esw->dev, MLX5_INTERFACE_PROTOCOL_ETH);
        }
        }
 
        esw->enabled_vports = 0;
-       esw->mode = SRIOV_NONE;
+       esw->mode = MLX5_ESWITCH_NONE;
        esw->offloads.inline_mode = MLX5_INLINE_MODE_NONE;
        if (MLX5_CAP_ESW_FLOWTABLE_FDB(dev, reformat) &&
            MLX5_CAP_ESW_FLOWTABLE_FDB(dev, decap))
 
        ether_addr_copy(evport->info.mac, mac);
        evport->info.node_guid = node_guid;
-       if (evport->enabled && esw->mode == SRIOV_LEGACY)
+       if (evport->enabled && esw->mode == MLX5_ESWITCH_LEGACY)
                err = esw_vport_ingress_config(esw, evport);
 
 unlock:
 
        evport->info.vlan = vlan;
        evport->info.qos = qos;
-       if (evport->enabled && esw->mode == SRIOV_LEGACY) {
+       if (evport->enabled && esw->mode == MLX5_ESWITCH_LEGACY) {
                err = esw_vport_ingress_config(esw, evport);
                if (err)
                        goto unlock;
                mlx5_core_warn(esw->dev,
                               "Spoofchk in set while MAC is invalid, vport(%d)\n",
                               evport->vport);
-       if (evport->enabled && esw->mode == SRIOV_LEGACY)
+       if (evport->enabled && esw->mode == MLX5_ESWITCH_LEGACY)
                err = esw_vport_ingress_config(esw, evport);
        if (err)
                evport->info.spoofchk = pschk;
                return -EPERM;
 
        mutex_lock(&esw->state_lock);
-       if (esw->mode != SRIOV_LEGACY) {
+       if (esw->mode != MLX5_ESWITCH_LEGACY) {
                err = -EOPNOTSUPP;
                goto out;
        }
                return -EPERM;
 
        mutex_lock(&esw->state_lock);
-       if (esw->mode != SRIOV_LEGACY) {
+       if (esw->mode != MLX5_ESWITCH_LEGACY) {
                err = -EOPNOTSUPP;
                goto out;
        }
        u64 bytes = 0;
        int err = 0;
 
-       if (!vport->enabled || esw->mode != SRIOV_LEGACY)
+       if (!vport->enabled || esw->mode != MLX5_ESWITCH_LEGACY)
                return 0;
 
        if (vport->egress.drop_counter)
 
 u8 mlx5_eswitch_mode(struct mlx5_eswitch *esw)
 {
-       return ESW_ALLOWED(esw) ? esw->mode : SRIOV_NONE;
+       return ESW_ALLOWED(esw) ? esw->mode : MLX5_ESWITCH_NONE;
 }
 EXPORT_SYMBOL_GPL(mlx5_eswitch_mode);
 
 
 bool mlx5_esw_lag_prereq(struct mlx5_core_dev *dev0, struct mlx5_core_dev *dev1)
 {
-       if ((dev0->priv.eswitch->mode == SRIOV_NONE &&
-            dev1->priv.eswitch->mode == SRIOV_NONE) ||
-           (dev0->priv.eswitch->mode == SRIOV_OFFLOADS &&
-            dev1->priv.eswitch->mode == SRIOV_OFFLOADS))
+       if ((dev0->priv.eswitch->mode == MLX5_ESWITCH_NONE &&
+            dev1->priv.eswitch->mode == MLX5_ESWITCH_NONE) ||
+           (dev0->priv.eswitch->mode == MLX5_ESWITCH_OFFLOADS &&
+            dev1->priv.eswitch->mode == MLX5_ESWITCH_OFFLOADS))
                return true;
 
        return false;
 bool mlx5_esw_multipath_prereq(struct mlx5_core_dev *dev0,
                               struct mlx5_core_dev *dev1)
 {
-       return (dev0->priv.eswitch->mode == SRIOV_OFFLOADS &&
-               dev1->priv.eswitch->mode == SRIOV_OFFLOADS);
+       return (dev0->priv.eswitch->mode == MLX5_ESWITCH_OFFLOADS &&
+               dev1->priv.eswitch->mode == MLX5_ESWITCH_OFFLOADS);
 }
 
        struct mlx5_flow_table *fdb;
        int j, i = 0;
 
-       if (esw->mode != SRIOV_OFFLOADS)
+       if (esw->mode != MLX5_ESWITCH_OFFLOADS)
                return ERR_PTR(-EOPNOTSUPP);
 
        flow_act.action = attr->action;
 {
        int err, err1, num_vfs = esw->dev->priv.sriov.num_vfs;
 
-       if (esw->mode != SRIOV_LEGACY &&
+       if (esw->mode != MLX5_ESWITCH_LEGACY &&
            !mlx5_core_is_ecpf_esw_manager(esw->dev)) {
                NL_SET_ERR_MSG_MOD(extack,
                                   "Can't set offloads mode, SRIOV legacy not enabled");
                return -EINVAL;
        }
 
-       mlx5_eswitch_disable_sriov(esw);
-       err = mlx5_eswitch_enable_sriov(esw, num_vfs, SRIOV_OFFLOADS);
+       mlx5_eswitch_disable(esw);
+       err = mlx5_eswitch_enable(esw, num_vfs, MLX5_ESWITCH_OFFLOADS);
        if (err) {
                NL_SET_ERR_MSG_MOD(extack,
                                   "Failed setting eswitch to offloads");
-               err1 = mlx5_eswitch_enable_sriov(esw, num_vfs, SRIOV_LEGACY);
+               err1 = mlx5_eswitch_enable(esw, num_vfs, MLX5_ESWITCH_LEGACY);
                if (err1) {
                        NL_SET_ERR_MSG_MOD(extack,
                                           "Failed setting eswitch back to legacy");
 {
        int err, err1, num_vfs = esw->dev->priv.sriov.num_vfs;
 
-       mlx5_eswitch_disable_sriov(esw);
-       err = mlx5_eswitch_enable_sriov(esw, num_vfs, SRIOV_LEGACY);
+       mlx5_eswitch_disable(esw);
+       err = mlx5_eswitch_enable(esw, num_vfs, MLX5_ESWITCH_LEGACY);
        if (err) {
                NL_SET_ERR_MSG_MOD(extack, "Failed setting eswitch to legacy");
-               err1 = mlx5_eswitch_enable_sriov(esw, num_vfs, SRIOV_OFFLOADS);
+               err1 = mlx5_eswitch_enable(esw, num_vfs, MLX5_ESWITCH_OFFLOADS);
                if (err1) {
                        NL_SET_ERR_MSG_MOD(extack,
                                           "Failed setting eswitch back to offloads");
 {
        switch (mode) {
        case DEVLINK_ESWITCH_MODE_LEGACY:
-               *mlx5_mode = SRIOV_LEGACY;
+               *mlx5_mode = MLX5_ESWITCH_LEGACY;
                break;
        case DEVLINK_ESWITCH_MODE_SWITCHDEV:
-               *mlx5_mode = SRIOV_OFFLOADS;
+               *mlx5_mode = MLX5_ESWITCH_OFFLOADS;
                break;
        default:
                return -EINVAL;
 static int esw_mode_to_devlink(u16 mlx5_mode, u16 *mode)
 {
        switch (mlx5_mode) {
-       case SRIOV_LEGACY:
+       case MLX5_ESWITCH_LEGACY:
                *mode = DEVLINK_ESWITCH_MODE_LEGACY;
                break;
-       case SRIOV_OFFLOADS:
+       case MLX5_ESWITCH_OFFLOADS:
                *mode = DEVLINK_ESWITCH_MODE_SWITCHDEV;
                break;
        default:
        if(!MLX5_ESWITCH_MANAGER(dev))
                return -EPERM;
 
-       if (dev->priv.eswitch->mode == SRIOV_NONE &&
+       if (dev->priv.eswitch->mode == MLX5_ESWITCH_NONE &&
            !mlx5_core_is_ecpf_esw_manager(dev))
                return -EOPNOTSUPP;
 
        if (!MLX5_CAP_GEN(dev, vport_group_manager))
                return -EOPNOTSUPP;
 
-       if (esw->mode == SRIOV_NONE)
+       if (esw->mode == MLX5_ESWITCH_NONE)
                return -EOPNOTSUPP;
 
        switch (MLX5_CAP_ETH(dev, wqe_inline_mode)) {
        if (encap && encap != DEVLINK_ESWITCH_ENCAP_MODE_BASIC)
                return -EOPNOTSUPP;
 
-       if (esw->mode == SRIOV_LEGACY) {
+       if (esw->mode == MLX5_ESWITCH_LEGACY) {
                esw->offloads.encap = encap;
                return 0;
        }
        struct mlx5_eswitch_rep *rep;
        int i;
 
-       if (esw->mode == SRIOV_OFFLOADS)
+       if (esw->mode == MLX5_ESWITCH_OFFLOADS)
                __unload_reps_all_vport(esw, max_vf, rep_type);
 
        mlx5_esw_for_all_reps(esw, i, rep)