Mostly corrects white spaces, indentations, and comments.
Signed-off-by: Yuval Mintz <yuvalmin@broadcom.com>
Signed-off-by: Ariel Elior <ariele@broadcom.com>
Signed-off-by: Eilon Greenstein <eilong@broadcom.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
 #define bnx2x_mc_addr(ha)      ((ha)->addr)
 #define bnx2x_uc_addr(ha)      ((ha)->addr)
 
-#define U64_LO(x)                      (u32)(((u64)(x)) & 0xffffffff)
-#define U64_HI(x)                      (u32)(((u64)(x)) >> 32)
+#define U64_LO(x)                      ((u32)(((u64)(x)) & 0xffffffff))
+#define U64_HI(x)                      ((u32)(((u64)(x)) >> 32))
 #define HILO_U64(hi, lo)               ((((u64)(hi)) << 32) + (lo))
 
 
 #define CHIP_NUM_57811                 0x163d
 #define CHIP_NUM_57811_MF              0x163e
 #define CHIP_NUM_57811_VF              0x163f
-#define CHIP_NUM_57840_OBSOLETE        0x168d
+#define CHIP_NUM_57840_OBSOLETE                0x168d
 #define CHIP_NUM_57840_MF_OBSOLETE     0x16ab
 #define CHIP_NUM_57840_4_10            0x16a1
 #define CHIP_NUM_57840_2_20            0x16a2
 };
 
 struct bnx2x_fw_stats_data {
-       struct stats_counter    storm_counters;
-       struct per_port_stats   port;
-       struct per_pf_stats     pf;
+       struct stats_counter            storm_counters;
+       struct per_port_stats           port;
+       struct per_pf_stats             pf;
        struct fcoe_statistics_params   fcoe;
-       struct per_queue_stats  queue_stats[1];
+       struct per_queue_stats          queue_stats[1];
 };
 
 /* Public slow path states */
        __le16                  *eq_cons_sb;
        atomic_t                eq_spq_left; /* COMMON_XXX ramrods credit */
 
-
-
        /* Counter for marking that there is a STAT_QUERY ramrod pending */
        u16                     stats_pending;
        /*  Counter for completed statistics ramrods */
 #define BNX2X_LOOPBACK_FAILED          (BNX2X_MAC_LOOPBACK_FAILED | \
                                         BNX2X_PHY_LOOPBACK_FAILED)
 
-
 #define STROM_ASSERT_ARRAY_SIZE                50
 
-
 /* must be used on a CID before placing it on a HW ring */
 #define HW_CID(bp, x)                  ((BP_PORT(bp) << 23) | \
                                         (BP_VN(bp) << BNX2X_SWCID_SHIFT) | \
 /* Memory of fairness algorithm . 2 cycles */
 #define FAIR_MEM                                       2
 
-
 #define ATTN_NIG_FOR_FUNC              (1L << 8)
 #define ATTN_SW_TIMER_4_FUNC           (1L << 9)
 #define GPIO_2_FUNC                    (1L << 10)
 
 #define MULTI_MASK                     0x7f
 
-
 #define DEF_USB_FUNC_OFF       offsetof(struct cstorm_def_status_block_u, func)
 #define DEF_CSB_FUNC_OFF       offsetof(struct cstorm_def_status_block_c, func)
 #define DEF_XSB_FUNC_OFF       offsetof(struct xstorm_def_status_block, func)
                (&bp->def_status_blk->sp_sb.\
                                        index_values[HC_SP_INDEX_ETH_DEF_CONS])
 
-#define SET_FLAG(value, mask, flag) \
-       do {\
-               (value) &= ~(mask);\
-               (value) |= ((flag) << (mask##_SHIFT));\
-       } while (0)
-
-#define GET_FLAG(value, mask) \
-       (((value) & (mask)) >> (mask##_SHIFT))
-
-#define GET_FIELD(value, fname) \
-       (((value) & (fname##_MASK)) >> (fname##_SHIFT))
-
 #define CAM_IS_INVALID(x) \
        (GET_FLAG(x.flags, \
        MAC_CONFIGURATION_ENTRY_ACTION_TYPE) == \
 #define MC_HASH_OFFSET(bp, i)          (BAR_TSTRORM_INTMEM + \
        TSTORM_APPROXIMATE_MATCH_MULTICAST_FILTERING_OFFSET(BP_FUNC(bp)) + i*4)
 
-
 #ifndef PXP2_REG_PXP2_INT_STS
 #define PXP2_REG_PXP2_INT_STS          PXP2_REG_PXP2_INT_STS_0
 #endif
                            (!((me_reg) & ME_REG_VF_ERR)))
 int bnx2x_nic_load_analyze_req(struct bnx2x *bp, u32 load_code);
 /* Congestion management fairness mode */
-#define CMNG_FNS_NONE          0
-#define CMNG_FNS_MINMAX                1
+#define CMNG_FNS_NONE                  0
+#define CMNG_FNS_MINMAX                        1
 
 #define HC_SEG_ACCESS_DEF              0   /*Driver decision 0-3*/
 #define HC_SEG_ACCESS_ATTN             4
 void bnx2x_set_ethtool_ops(struct net_device *netdev);
 void bnx2x_notify_link_changed(struct bnx2x *bp);
 
-
 #define BNX2X_MF_SD_PROTOCOL(bp) \
        ((bp)->mf_config[BP_VN(bp)] & FUNC_MF_CFG_PROTOCOL_MASK)
 
                                (BNX2X_IS_MF_SD_PROTOCOL_ISCSI(bp) || \
                                 BNX2X_IS_MF_SD_PROTOCOL_FCOE(bp)))
 
+#define SET_FLAG(value, mask, flag) \
+       do {\
+               (value) &= ~(mask);\
+               (value) |= ((flag) << (mask##_SHIFT));\
+       } while (0)
+
+#define GET_FLAG(value, mask) \
+       (((value) & (mask)) >> (mask##_SHIFT))
+
+#define GET_FIELD(value, fname) \
+       (((value) & (fname##_MASK)) >> (fname##_SHIFT))
+
 enum {
        SWITCH_UPDATE,
        AFEX_UPDATE,
 
                   txdata->txq_index, hw_cons, sw_cons, pkt_cons);
 
                bd_cons = bnx2x_free_tx_pkt(bp, txdata, pkt_cons,
-                   &pkts_compl, &bytes_compl);
+                                           &pkts_compl, &bytes_compl);
 
                sw_cons++;
        }
           fp->last_max_sge, fp->rx_sge_prod);
 }
 
-/* Set Toeplitz hash value in the skb using the value from the
+/* Get Toeplitz hash value in the skb using the value from the
  * CQE (calculated by HW).
  */
 static u32 bnx2x_get_rxhash(const struct bnx2x *bp,
                            const struct eth_fast_path_rx_cqe *cqe,
                            bool *l4_rxhash)
 {
-       /* Set Toeplitz hash from CQE */
+       /* Get Toeplitz hash from CQE */
        if ((bp->dev->features & NETIF_F_RXHASH) &&
            (cqe->status_flags & ETH_FAST_PATH_RX_CQE_RSS_HASH_FLG)) {
                enum eth_rss_hash_type htype;
  *
  * Approximate value of the MSS for this aggregation calculated using
  * the first packet of it.
- * Compute number of aggregated segments, and gso_type
+ * Compute number of aggregated segments, and gso_type.
  */
 static void bnx2x_set_gro_params(struct sk_buff *skb, u16 parsing_flags,
                                 u16 len_on_bd, unsigned int pkt_len)
        return kmalloc(fp->rx_buf_size + NET_SKB_PAD, GFP_ATOMIC);
 }
 
-
 #ifdef CONFIG_INET
 static void bnx2x_gro_ip_csum(struct bnx2x *bp, struct sk_buff *skb)
 {
        return __skb_tx_hash(dev, skb, BNX2X_NUM_ETH_QUEUES(bp));
 }
 
-
 void bnx2x_set_num_queues(struct bnx2x *bp)
 {
        /* RSS queues */
 #endif /* ! BNX2X_STOP_ON_ERROR */
 }
 
-
 /* must be called with rtnl_lock */
 int bnx2x_nic_load(struct bnx2x *bp, int load_mode)
 {
                        if (bnx2x_tx_queue_has_work(fp->txdata_ptr[cos]))
                                bnx2x_tx_int(bp, fp->txdata_ptr[cos]);
 
-
                if (bnx2x_has_rx_work(fp)) {
                        work_done += bnx2x_rx_int(fp, budget - work_done);
 
  * 57712 related
  */
 static inline  u8 bnx2x_set_pbd_csum_e2(struct bnx2x *bp, struct sk_buff *skb,
-       u32 *parsing_data, u32 xmit_type)
+                                       u32 *parsing_data, u32 xmit_type)
 {
        *parsing_data |=
-                       ((((u8 *)skb_transport_header(skb) - skb->data) >> 1) <<
-                       ETH_TX_PARSE_BD_E2_TCP_HDR_START_OFFSET_W_SHIFT) &
-                       ETH_TX_PARSE_BD_E2_TCP_HDR_START_OFFSET_W;
+               ((((u8 *)skb_transport_header(skb) - skb->data) >> 1) <<
+               ETH_TX_PARSE_BD_E2_TCP_HDR_START_OFFSET_W_SHIFT) &
+               ETH_TX_PARSE_BD_E2_TCP_HDR_START_OFFSET_W;
 
        if (xmit_type & XMIT_CSUM_TCP) {
                *parsing_data |= ((tcp_hdrlen(skb) / 4) <<
                        dev_kfree_skb(skb);
                        return NETDEV_TX_OK;
                }
-                       bnx2x_fp_qstats(bp, txdata->parent_fp)->driver_xoff++;
-                       netif_tx_stop_queue(txq);
+               bnx2x_fp_qstats(bp, txdata->parent_fp)->driver_xoff++;
+               netif_tx_stop_queue(txq);
                BNX2X_ERR("BUG! Tx ring full when queue awake!\n");
 
                return NETDEV_TX_BUSY;
 
        /*
         * The biggest MSI-X table we might need is as a maximum number of fast
-        * path IGU SBs plus default SB (for PF).
+        * path IGU SBs plus default SB (for PF only).
         */
        msix_table_size = bp->igu_sb_cnt;
        if (IS_PF(bp))
 {
        u32 sel_phy_idx = bnx2x_get_cur_phy_idx(bp);
        /*
-        * The selected actived PHY is always after swapping (in case PHY
+        * The selected activated PHY is always after swapping (in case PHY
         * swapping is enabled). So when swapping is enabled, we need to reverse
         * the configuration
         */
 
        return bnx2x_func_state_change(bp, &func_params);
 }
 
-
 /**
  * bnx2x_set_fw_mac_addr - fill in a MAC address in FW format
  *
 }
 
 /**
- * bnx2x_fill_fw_str - Fill buffer with FW version string.
+ * bnx2x_fill_fw_str - Fill buffer with FW version string
  *
  * @bp:        driver handle
  * @buf:       character buffer to fill with the fw name
 
        int mfw_configured = SHMEM2_HAS(bp, drv_flags) &&
                             GET_FLAGS(SHMEM2_RD(bp, drv_flags),
                                       1 << DRV_FLAGS_DCB_MFW_CONFIGURED);
+
        if (bp->dcbx_port_params.pfc.enabled &&
            (!(bp->dcbx_error & DCBX_REMOTE_MIB_ERROR) || mfw_configured))
                /*
        int mfw_configured = SHMEM2_HAS(bp, drv_flags) &&
                             GET_FLAGS(SHMEM2_RD(bp, drv_flags),
                                       1 << DRV_FLAGS_DCB_MFW_CONFIGURED);
+
        bnx2x_ets_disabled(&bp->link_params, &bp->link_vars);
 
        if (!bp->dcbx_port_params.ets.enabled ||
        struct bnx2x *bp = netdev_priv(netdev);
        DP(BNX2X_MSG_DCB, "state = %s\n", state ? "on" : "off");
 
+       /* Fail to set state to "enabled" if dcbx is disabled in nvram */
        if (state && ((bp->dcbx_enabled == BNX2X_DCBX_ENABLED_OFF) ||
                      (bp->dcbx_enabled == BNX2X_DCBX_ENABLED_INVALID))) {
                DP(BNX2X_MSG_DCB, "Can not set dcbx to enabled while it is disabled in nvm\n");
                return 1;
        }
+
        bnx2x_dcbx_set_state(bp, (state ? true : false), bp->dcbx_enabled);
        return 0;
 }
        if (!bnx2x_dcbnl_set_valid(bp) || prio >= MAX_PFC_PRIORITIES)
                return;
 
-
        if (setting) {
                bp->dcbx_config_params.admin_pfc_bitmap |= (1 << prio);
                bp->dcbx_config_params.admin_pfc_tx_enable = 1;
 
 
        if ((bp->state == BNX2X_STATE_OPEN) && bp->link_vars.link_up &&
            !(bp->flags & MF_FUNC_DIS)) {
-                       cmd->duplex = bp->link_vars.duplex;
+               cmd->duplex = bp->link_vars.duplex;
 
                if (IS_MF(bp) && !BP_NOMCP(bp))
                        ethtool_cmd_speed_set(cmd, bnx2x_get_mf_speed(bp));
                DP(BNX2X_MSG_ETHTOOL, "Unsupported port type\n");
                return -EINVAL;
        }
-       /* Save new config in case command complete successully */
+       /* Save new config in case command complete successfully */
        new_multi_phy_config = bp->link_params.multi_phy_config;
        /* Get the new cfg_idx */
        cfg_idx = bnx2x_get_link_cfg_idx(bp);
  * @bp         device handle
  * @p          output buffer
  *
- * Reads "paged" memories: memories that may only be read by
- * first writing to a specific address ("write address") and
- * then reading from a specific address ("read address"). There
- * may be more than one write address per "page" and more than
- * one read address per write address.
+ * Reads "paged" memories: memories that may only be read by first writing to a
+ * specific address ("write address") and then reading from a specific address
+ * ("read address"). There may be more than one write address per "page" and
+ * more than one read address per write address.
  */
 static void bnx2x_read_pages_regs(struct bnx2x *bp, u32 *p, u32 preset)
 {
        struct bnx2x *bp = netdev_priv(dev);
 
        if (wol->wolopts & ~WAKE_MAGIC) {
-               DP(BNX2X_MSG_ETHTOOL, "WOL not supproted\n");
+               DP(BNX2X_MSG_ETHTOOL, "WOL not supported\n");
                return -EINVAL;
        }
 
        if (wol->wolopts & WAKE_MAGIC) {
                if (bp->flags & NO_WOL_FLAG) {
-                       DP(BNX2X_MSG_ETHTOOL, "WOL not supproted\n");
+                       DP(BNX2X_MSG_ETHTOOL, "WOL not supported\n");
                        return -EINVAL;
                }
                bp->wol = 1;
  * Pf B takes the lock and proceeds to perform it's own access.
  * pf A unlocks the per port lock, while pf B is still working (!).
  * mcp takes the per port lock and corrupts pf B's access (and/or has it's own
- * acess corrupted by pf B).*
+ * access corrupted by pf B)
  */
 static int bnx2x_acquire_nvram_lock(struct bnx2x *bp)
 {
        return 0;
 }
 
-
 enum {
        BNX2X_CHIP_E1_OFST = 0,
        BNX2X_CHIP_E1H_OFST,
                etest->flags |= ETH_TEST_FL_FAILED;
                return;
        }
+
        DP(BNX2X_MSG_ETHTOOL,
           "Self-test command parameters: offline = %d, external_lb = %d\n",
           (etest->flags & ETH_TEST_FL_OFFLINE),
                        DP(BNX2X_MSG_ETHTOOL,
                           "Command parameters not supported\n");
                        return -EINVAL;
-               } else {
-                       return 0;
                }
+               return 0;
 
        case UDP_V4_FLOW:
        case UDP_V6_FLOW:
                /* For UDP either 2-tupple hash or 4-tupple hash is supported */
                if (info->data == (RXH_IP_SRC | RXH_IP_DST |
-                                RXH_L4_B_0_1 | RXH_L4_B_2_3))
+                                  RXH_L4_B_0_1 | RXH_L4_B_2_3))
                        udp_rss_requested = 1;
                else if (info->data == (RXH_IP_SRC | RXH_IP_DST))
                        udp_rss_requested = 0;
 
 #define MAX_VLAN_CREDIT_E1H 0 /* Per Chip */
 #define MAX_VLAN_CREDIT_E2 272 /* Per Path */
 
-
 /* Maximal aggregation queues supported */
 #define ETH_MAX_AGGREGATION_QUEUES_E1 32
 #define ETH_MAX_AGGREGATION_QUEUES_E1H_E2 64
 
-
 #define ETH_NUM_OF_MCAST_BINS 256
 #define ETH_NUM_OF_MCAST_ENGINES_E2 72
 
 /* max number of slow path commands per port */
 #define MAX_RAMRODS_PER_PORT 8
 
-
 /**** DEFINES FOR TIMERS/CLOCKS RESOLUTIONS ****/
 
 #define TIMERS_TICK_SIZE_CHIP (1e-3)
        that is not mapped to priority*/
 #define LLFC_TRAFFIC_TYPE_TO_PRIORITY_UNMAPPED 0xFF
 
-
 #define C_ERES_PER_PAGE \
        (PAGE_SIZE / BITS_TO_BYTES(STRUCT_SIZE(event_ring_elem)))
 #define C_ERE_PER_PAGE_MASK (C_ERES_PER_PAGE - 1)
 
 #define INVALID_VNIC_ID        0xFF
 
-
 #define UNDEF_IRO 0x80000000
 
-
 #endif /* BNX2X_FW_DEFS_H */
 
        printk("%s" "begin fw dump (mark 0x%x)\n", lvl, mark);
 
        printk("%s", lvl);
+
+       /* dump buffer after the mark */
        for (offset = mark; offset <= trace_shmem_base; offset += 0x8*4) {
                for (word = 0; word < 8; word++)
                        data[word] = htonl(REG_RD(bp, offset + 4*word));
                data[8] = 0x0;
                pr_cont("%s", (char *)data);
        }
+
+       /* dump buffer before the mark */
        for (offset = addr + 4; offset <= mark; offset += 0x8*4) {
                for (word = 0; word < 8; word++)
                        data[word] = htonl(REG_RD(bp, offset + 4*word));
 }
 
 /**
- * bnx2x_trylock_leader_lock- try to aquire a leader lock.
+ * bnx2x_trylock_leader_lock- try to acquire a leader lock.
  *
  * @bp: driver handle
  *
- * Tries to aquire a leader lock for current engine.
+ * Tries to acquire a leader lock for current engine.
  */
 static bool bnx2x_trylock_leader_lock(struct bnx2x *bp)
 {
                 * mark pending ACK to MCP bit.
                 * prevent case that both bits are cleared.
                 * At the end of load/unload driver checks that
-                * sp_state is cleaerd, and this order prevents
+                * sp_state is cleared, and this order prevents
                 * races
                 */
                smp_mb__before_clear_bit();
 
        /* Maximum number or simultaneous TPA aggregation for this Queue.
         *
-        * For PF Clients it should be the maximum avaliable number.
+        * For PF Clients it should be the maximum available number.
         * VF driver(s) may want to define it to a smaller value.
         */
        rxq_init->max_tpa_queues = MAX_AGG_QS(bp);
                            "Please contact OEM Support for assistance\n");
 
        /*
-        * Scheudle device reset (unload)
+        * Schedule device reset (unload)
         * This is due to some boards consuming sufficient power when driver is
         * up to overheat if fan fails.
         */
        struct bnx2x_queue_update_params *q_update_params =
                &queue_params.params.update;
 
-       /* Send Q update command with afex vlan removal values  for all Qs */
+       /* Send Q update command with afex vlan removal values for all Qs */
        queue_params.cmd = BNX2X_Q_CMD_UPDATE;
 
        /* set silent vlan removal values according to vlan mode */
        for (; sw_cons != hw_cons;
              sw_prod = NEXT_EQ_IDX(sw_prod), sw_cons = NEXT_EQ_IDX(sw_cons)) {
 
-
                elem = &bp->eq_ring[EQ_DESC(sw_cons)];
 
                rc = bnx2x_iov_eq_sp_event(bp, elem);
        DP(NETIF_MSG_HW, "starting common init  func %d\n", BP_ABS_FUNC(bp));
 
        /*
-        * take the UNDI lock to protect undi_unload flow from accessing
+        * take the RESET lock to protect undi_unload flow from accessing
         * registers while we're resetting the chip
         */
        bnx2x_acquire_hw_lock(bp, HW_LOCK_RESOURCE_RESET);
  *                 queues with "old" ILT addresses.
  *             c.  PF enable in the PGLC.
  *             d.  Clear the was_error of the PF in the PGLC. (could have
- *                 occured while driver was down)
+ *                 occurred while driver was down)
  *             e.  PF enable in the CFC (WEAK + STRONG)
  *             f.  Timers scan enable
  *     3.  PF driver unload flow:
                /* Step 1: set zeroes to all ilt page entries with valid bit on
                 * Step 2: set the timers first/last ilt entry to point
                 * to the entire range to prevent ILT range error for 3rd/4th
-                * vnic (this code assumes existance of the vnic)
+                * vnic (this code assumes existence of the vnic)
                 *
                 * both steps performed by call to bnx2x_ilt_client_init_op()
                 * with dummy TM client
                REG_WR(bp, PXP2_REG_RQ_DRAM_ALIGN_SEL, 1);
        }
 
-
        REG_WR(bp, PXP2_REG_RQ_DISABLE_INPUTS, 0);
        REG_WR(bp, PXP2_REG_RD_DISABLE_INPUTS, 0);
 
                }
        }
 
-
        /* If SPIO5 is set to generate interrupts, enable it for this port */
        val = REG_RD(bp, MISC_REG_SPIO_EVENT_EN);
        if (val & MISC_SPIO_SPIO5) {
 
        /* SP SB */
        REG_WR8(bp, BAR_CSTRORM_INTMEM +
-                  CSTORM_SP_STATUS_BLOCK_DATA_STATE_OFFSET(func),
-                  SB_DISABLED);
+               CSTORM_SP_STATUS_BLOCK_DATA_STATE_OFFSET(func),
+               SB_DISABLED);
 
        for (i = 0; i < XSTORM_SPQ_DATA_SIZE / 4; i++)
                REG_WR(bp, BAR_XSTRORM_INTMEM + XSTORM_SPQ_DATA_OFFSET(func),
        int cnt = 1000;
        u32 val = 0;
        u32 sr_cnt, blk_cnt, port_is_idle_0, port_is_idle_1, pgl_exp_rom2;
-               u32 tags_63_32 = 0;
-
+       u32 tags_63_32 = 0;
 
        /* Empty the Tetris buffer, wait for 1s */
        do {
                REG_WR(bp, MCP_REG_MCPR_ACCESS_LOCK, 0);
        }
 
-
        do {
                /* Lock MCP using an unload request */
                fw = bnx2x_fw_command(bp, DRV_MSG_CODE_UNLOAD_REQ_WOL_DIS, 0);
                /* Port info */
                bp->cnic_eth_dev.fcoe_wwn_port_name_hi =
                        SHMEM_RD(bp,
-                               dev_info.port_hw_config[port].
+                                dev_info.port_hw_config[port].
                                 fcoe_wwn_port_name_upper);
                bp->cnic_eth_dev.fcoe_wwn_port_name_lo =
                        SHMEM_RD(bp,
-                               dev_info.port_hw_config[port].
+                                dev_info.port_hw_config[port].
                                 fcoe_wwn_port_name_lower);
 
                /* Node info */
                bp->cnic_eth_dev.fcoe_wwn_node_name_hi =
                        SHMEM_RD(bp,
-                               dev_info.port_hw_config[port].
+                                dev_info.port_hw_config[port].
                                 fcoe_wwn_node_name_upper);
                bp->cnic_eth_dev.fcoe_wwn_node_name_lo =
                        SHMEM_RD(bp,
-                               dev_info.port_hw_config[port].
+                                dev_info.port_hw_config[port].
                                 fcoe_wwn_node_name_lower);
        } else if (!IS_MF_SD(bp)) {
                /*
        return rc;
 }
 
-
 /* If bp->state is OPEN, should be called with netif_addr_lock_bh() */
 void bnx2x_set_rx_mode(struct net_device *dev)
 {
         * support Physical Device Assignment where kernel BDF maybe arbitrary
         * (depending on hypervisor).
         */
-       if (chip_is_e1x)
+       if (chip_is_e1x) {
                bp->pf_num = PCI_FUNC(pdev->devfn);
-       else {/* chip is E2/3*/
+       } else {
+               /* chip is E2/3*/
                pci_read_config_dword(bp->pdev,
                                      PCICFG_ME_REGISTER, &pci_cfg_dword);
                bp->pf_num = (u8)((pci_cfg_dword & ME_REG_ABS_PF_NUM) >>
-                   ME_REG_ABS_PF_NUM_SHIFT);
+                                 ME_REG_ABS_PF_NUM_SHIFT);
        }
        BNX2X_DEV_INFO("me reg PF num: %d\n", bp->pf_num);
 
        BNX2X_DEV_INFO("Cnic support is %s\n", CNIC_SUPPORT(bp) ? "on" : "off");
        BNX2X_DEV_INFO("Max num of status blocks %d\n", max_non_def_sbs);
        BNX2X_DEV_INFO("Allocated netdev with %d tx and %d rx queues\n",
-                         tx_count, rx_count);
+                      tx_count, rx_count);
 
        rc = bnx2x_init_bp(bp);
        if (rc)
 
        if (cqe->message.error)
                return -EINVAL;
 
-       /* Run the next bulk of pending commands if requeted */
+       /* Run the next bulk of pending commands if requested */
        if (test_bit(RAMROD_CONT, ramrod_flags)) {
                rc = bnx2x_exe_queue_step(bp, &o->exe_queue, ramrod_flags);
                if (rc < 0)
 static int bnx2x_set_rx_mode_e1x(struct bnx2x *bp,
                                 struct bnx2x_rx_mode_ramrod_params *p)
 {
-       /* update the bp MAC filter structure  */
+       /* update the bp MAC filter structure */
        u32 mask = (1 << p->cl_id);
 
        struct tstorm_eth_mac_filter_config *mac_filters =
                mac_filters->unmatched_unicast & ~mask;
 
        DP(BNX2X_MSG_SP, "drop_ucast 0x%x\ndrop_mcast 0x%x\n accp_ucast 0x%x\n"
-                                        "accp_mcast 0x%x\naccp_bcast 0x%x\n",
+                        "accp_mcast 0x%x\naccp_bcast 0x%x\n",
           mac_filters->ucast_drop_all, mac_filters->mcast_drop_all,
           mac_filters->ucast_accept_all, mac_filters->mcast_accept_all,
           mac_filters->bcast_accept_all);
                cnt++;
 
                DP(BNX2X_MSG_SP, "About to configure %pM mcast MAC\n",
-                                mlist_pos->mac);
+                  mlist_pos->mac);
        }
 
        *line_idx = cnt;
                BNX2X_57711_SET_MC_FILTER(mc_filter, bit);
 
                DP(BNX2X_MSG_SP, "About to configure %pM mcast MAC, bin %d\n",
-                                mlist_pos->mac, bit);
+                  mlist_pos->mac, bit);
 
                /* bookkeeping... */
                BIT_VEC64_SET_BIT(o->registry.aprox_match.vec,
                i++;
 
                  DP(BNX2X_MSG_SP, "About to configure %pM mcast MAC\n",
-                                  cfg_data.mac);
+                    cfg_data.mac);
        }
 
        *rdata_idx = i;
                        cnt++;
 
                        DP(BNX2X_MSG_SP, "About to configure %pM mcast MAC\n",
-                                        pmac_pos->mac);
+                          pmac_pos->mac);
                }
                break;
 
        memset(rdata, 0, sizeof(*rdata));
 
        /* Fill the ramrod data with provided parameters */
-       rdata->function_mode = (u8)start_params->mf_mode;
-       rdata->sd_vlan_tag   = cpu_to_le16(start_params->sd_vlan_tag);
-       rdata->path_id       = BP_PATH(bp);
+       rdata->function_mode    = (u8)start_params->mf_mode;
+       rdata->sd_vlan_tag      = cpu_to_le16(start_params->sd_vlan_tag);
+       rdata->path_id          = BP_PATH(bp);
        rdata->network_cos_mode = start_params->network_cos_mode;
 
        /*
 
        BNX2X_OBJ_TYPE_RX_TX,
 } bnx2x_obj_type;
 
-/* Filtering states */
+/* Public slow path states */
 enum {
        BNX2X_FILTER_MAC_PENDING,
        BNX2X_FILTER_VLAN_PENDING,