spin_unlock_irqrestore(&tasklet_ctx->lock, flags);
 }
 
-void mlx5_cq_completion(struct mlx5_core_dev *dev, u32 cqn)
+void mlx5_cq_completion(struct mlx5_eq *eq, u32 cqn)
 {
+       struct mlx5_cq_table *table = &eq->cq_table;
        struct mlx5_core_cq *cq;
-       struct mlx5_cq_table *table = &dev->priv.cq_table;
 
        spin_lock(&table->lock);
        cq = radix_tree_lookup(&table->tree, cqn);
        spin_unlock(&table->lock);
 
        if (!cq) {
-               mlx5_core_warn(dev, "Completion event for bogus CQ 0x%x\n", cqn);
+               mlx5_core_warn(eq->dev, "Completion event for bogus CQ 0x%x\n", cqn);
                return;
        }
 
                complete(&cq->free);
 }
 
-void mlx5_cq_event(struct mlx5_core_dev *dev, u32 cqn, int event_type)
+void mlx5_cq_event(struct mlx5_eq *eq, u32 cqn, int event_type)
 {
-       struct mlx5_cq_table *table = &dev->priv.cq_table;
+       struct mlx5_cq_table *table = &eq->cq_table;
        struct mlx5_core_cq *cq;
 
        spin_lock(&table->lock);
        spin_unlock(&table->lock);
 
        if (!cq) {
-               mlx5_core_warn(dev, "Async event for bogus CQ 0x%x\n", cqn);
+               mlx5_core_warn(eq->dev, "Async event for bogus CQ 0x%x\n", cqn);
                return;
        }
 
 int mlx5_core_create_cq(struct mlx5_core_dev *dev, struct mlx5_core_cq *cq,
                        u32 *in, int inlen)
 {
-       struct mlx5_cq_table *table = &dev->priv.cq_table;
        u32 out[MLX5_ST_SZ_DW(create_cq_out)];
        u32 din[MLX5_ST_SZ_DW(destroy_cq_in)];
        u32 dout[MLX5_ST_SZ_DW(destroy_cq_out)];
        int eqn = MLX5_GET(cqc, MLX5_ADDR_OF(create_cq_in, in, cq_context),
                           c_eqn);
-       struct mlx5_eq *eq;
+       struct mlx5_eq *eq, *async_eq;
+       struct mlx5_cq_table *table;
        int err;
 
+       async_eq = &dev->priv.eq_table.async_eq;
        eq = mlx5_eqn2eq(dev, eqn);
        if (IS_ERR(eq))
                return PTR_ERR(eq);
 
+       table = &eq->cq_table;
+
        memset(out, 0, sizeof(out));
        MLX5_SET(create_cq_in, in, opcode, MLX5_CMD_OP_CREATE_CQ);
        err = mlx5_cmd_exec(dev, in, inlen, out, sizeof(out));
        cq->cqn = MLX5_GET(create_cq_out, out, cqn);
        cq->cons_index = 0;
        cq->arm_sn     = 0;
+       cq->eq         = eq;
        refcount_set(&cq->refcount, 1);
        init_completion(&cq->free);
        if (!cq->comp)
        cq->tasklet_ctx.priv = &eq->tasklet_ctx;
        INIT_LIST_HEAD(&cq->tasklet_ctx.list);
 
+       /* Add to comp EQ CQ tree to recv comp events */
        spin_lock_irq(&table->lock);
        err = radix_tree_insert(&table->tree, cq->cqn, cq);
        spin_unlock_irq(&table->lock);
        if (err)
                goto err_cmd;
 
+       /* Add to async EQ CQ tree to recv Async events */
+       spin_lock_irq(&async_eq->cq_table.lock);
+       err = radix_tree_insert(&async_eq->cq_table.tree, cq->cqn, cq);
+       spin_unlock_irq(&async_eq->cq_table.lock);
+       if (err)
+               goto err_cq_table;
+
        cq->pid = current->pid;
        err = mlx5_debug_cq_add(dev, cq);
        if (err)
 
        return 0;
 
+err_cq_table:
+       spin_lock_irq(&table->lock);
+       radix_tree_delete(&table->tree, cq->cqn);
+       spin_unlock_irq(&table->lock);
 err_cmd:
        memset(din, 0, sizeof(din));
        memset(dout, 0, sizeof(dout));
 
 int mlx5_core_destroy_cq(struct mlx5_core_dev *dev, struct mlx5_core_cq *cq)
 {
-       struct mlx5_cq_table *table = &dev->priv.cq_table;
+       struct mlx5_cq_table *asyn_eq_cq_table = &dev->priv.eq_table.async_eq.cq_table;
+       struct mlx5_cq_table *table = &cq->eq->cq_table;
        u32 out[MLX5_ST_SZ_DW(destroy_cq_out)] = {0};
        u32 in[MLX5_ST_SZ_DW(destroy_cq_in)] = {0};
        struct mlx5_core_cq *tmp;
        int err;
 
+       spin_lock_irq(&asyn_eq_cq_table->lock);
+       tmp = radix_tree_delete(&asyn_eq_cq_table->tree, cq->cqn);
+       spin_unlock_irq(&asyn_eq_cq_table->lock);
+       if (!tmp) {
+               mlx5_core_warn(dev, "cq 0x%x not found in async eq cq tree\n", cq->cqn);
+               return -EINVAL;
+       }
+       if (tmp != cq) {
+               mlx5_core_warn(dev, "corruption on cqn 0x%x in async eq cq tree\n", cq->cqn);
+               return -EINVAL;
+       }
+
        spin_lock_irq(&table->lock);
        tmp = radix_tree_delete(&table->tree, cq->cqn);
        spin_unlock_irq(&table->lock);
        if (!tmp) {
-               mlx5_core_warn(dev, "cq 0x%x not found in tree\n", cq->cqn);
+               mlx5_core_warn(dev, "cq 0x%x not found in comp eq cq tree\n", cq->cqn);
                return -EINVAL;
        }
        if (tmp != cq) {
-               mlx5_core_warn(dev, "corruption on srqn 0x%x\n", cq->cqn);
+               mlx5_core_warn(dev, "corruption on cqn 0x%x in comp eq cq tree\n", cq->cqn);
                return -EINVAL;
        }
 
        return mlx5_core_modify_cq(dev, cq, in, sizeof(in));
 }
 EXPORT_SYMBOL(mlx5_core_modify_cq_moderation);
-
-int mlx5_init_cq_table(struct mlx5_core_dev *dev)
-{
-       struct mlx5_cq_table *table = &dev->priv.cq_table;
-       int err;
-
-       memset(table, 0, sizeof(*table));
-       spin_lock_init(&table->lock);
-       INIT_RADIX_TREE(&table->tree, GFP_ATOMIC);
-       err = mlx5_cq_debugfs_init(dev);
-
-       return err;
-}
-
-void mlx5_cleanup_cq_table(struct mlx5_core_dev *dev)
-{
-       mlx5_cq_debugfs_cleanup(dev);
-}
 
                switch (eqe->type) {
                case MLX5_EVENT_TYPE_COMP:
                        cqn = be32_to_cpu(eqe->data.comp.cqn) & 0xffffff;
-                       mlx5_cq_completion(dev, cqn);
+                       mlx5_cq_completion(eq, cqn);
                        break;
                case MLX5_EVENT_TYPE_DCT_DRAINED:
                        rsn = be32_to_cpu(eqe->data.dct.dctn) & 0xffffff;
                        cqn = be32_to_cpu(eqe->data.cq_err.cqn) & 0xffffff;
                        mlx5_core_warn(dev, "CQ error on CQN 0x%x, syndrome 0x%x\n",
                                       cqn, eqe->data.cq_err.syndrome);
-                       mlx5_cq_event(dev, cqn, eqe->type);
+                       mlx5_cq_event(eq, cqn, eqe->type);
                        break;
 
                case MLX5_EVENT_TYPE_PAGE_REQUEST:
                       int nent, u64 mask, const char *name,
                       enum mlx5_eq_type type)
 {
+       struct mlx5_cq_table *cq_table = &eq->cq_table;
        u32 out[MLX5_ST_SZ_DW(create_eq_out)] = {0};
        struct mlx5_priv *priv = &dev->priv;
        irq_handler_t handler;
        u32 *in;
        int err;
 
+       /* Init CQ table */
+       memset(cq_table, 0, sizeof(*cq_table));
+       spin_lock_init(&cq_table->lock);
+       INIT_RADIX_TREE(&cq_table->tree, GFP_ATOMIC);
+
        eq->type = type;
        eq->nent = roundup_pow_of_two(nent + MLX5_NUM_SPARE_EQE);
        eq->cons_index = 0;
 
        mempool_t               *pool;
 };
 
+struct mlx5_cq_table {
+       /* protect radix tree */
+       spinlock_t              lock;
+       struct radix_tree_root  tree;
+};
+
 struct mlx5_eq {
        struct mlx5_core_dev   *dev;
+       struct mlx5_cq_table    cq_table;
        __be32 __iomem         *doorbell;
        u32                     cons_index;
        struct mlx5_buf         buf;
        struct delayed_work             recover_work;
 };
 
-struct mlx5_cq_table {
-       /* protect radix tree
-        */
-       spinlock_t              lock;
-       struct radix_tree_root  tree;
-};
-
 struct mlx5_qp_table {
        /* protect radix tree
         */
        struct dentry          *cmdif_debugfs;
        /* end: qp staff */
 
-       /* start: cq staff */
-       struct mlx5_cq_table    cq_table;
-       /* end: cq staff */
-
        /* start: mkey staff */
        struct mlx5_mkey_table  mkey_table;
        /* end: mkey staff */
 void mlx5_eq_cleanup(struct mlx5_core_dev *dev);
 void mlx5_fill_page_array(struct mlx5_buf *buf, __be64 *pas);
 void mlx5_fill_page_frag_array(struct mlx5_frag_buf *frag_buf, __be64 *pas);
-void mlx5_cq_completion(struct mlx5_core_dev *dev, u32 cqn);
+void mlx5_cq_completion(struct mlx5_eq *eq, u32 cqn);
 void mlx5_rsc_event(struct mlx5_core_dev *dev, u32 rsn, int event_type);
 void mlx5_srq_event(struct mlx5_core_dev *dev, u32 srqn, int event_type);
 struct mlx5_core_srq *mlx5_core_get_srq(struct mlx5_core_dev *dev, u32 srqn);
 void mlx5_cmd_comp_handler(struct mlx5_core_dev *dev, u64 vec, bool forced);
-void mlx5_cq_event(struct mlx5_core_dev *dev, u32 cqn, int event_type);
+void mlx5_cq_event(struct mlx5_eq *eq, u32 cqn, int event_type);
 int mlx5_create_map_eq(struct mlx5_core_dev *dev, struct mlx5_eq *eq, u8 vecidx,
                       int nent, u64 mask, const char *name,
                       enum mlx5_eq_type type);