struct bnxt_ctx_pg_info *ctx_pg;
        struct bnxt_ctx_mem_info *ctx;
        u32 mem_size, ena, entries;
+       u32 entries_sp, min;
        u32 num_mr, num_ah;
        u32 extra_srqs = 0;
        u32 extra_qps = 0;
        ena |= FUNC_BACKING_STORE_CFG_REQ_ENABLES_TIM;
 
 skip_rdma:
-       entries = ctx->qp_max_l2_entries + extra_qps;
+       min = ctx->tqm_min_entries_per_ring;
+       entries_sp = ctx->vnic_max_vnic_entries + ctx->qp_max_l2_entries +
+                    2 * (extra_qps + ctx->qp_min_qp1_entries) + min;
+       entries_sp = roundup(entries_sp, ctx->tqm_entries_multiple);
+       entries = ctx->qp_max_l2_entries + extra_qps + ctx->qp_min_qp1_entries;
        entries = roundup(entries, ctx->tqm_entries_multiple);
-       entries = clamp_t(u32, entries, ctx->tqm_min_entries_per_ring,
-                         ctx->tqm_max_entries_per_ring);
+       entries = clamp_t(u32, entries, min, ctx->tqm_max_entries_per_ring);
        for (i = 0; i < ctx->tqm_fp_rings_count + 1; i++) {
                ctx_pg = ctx->tqm_mem[i];
-               ctx_pg->entries = entries;
-               mem_size = ctx->tqm_entry_size * entries;
+               ctx_pg->entries = i ? entries : entries_sp;
+               mem_size = ctx->tqm_entry_size * ctx_pg->entries;
                rc = bnxt_alloc_ctx_pg_tbls(bp, ctx_pg, mem_size, 1, false);
                if (rc)
                        return rc;