void mlx5_vdpa_put_mr(struct mlx5_vdpa_dev *mvdev,
                      struct mlx5_vdpa_mr *mr)
 {
-       mutex_lock(&mvdev->mr_mtx);
+       mutex_lock(&mvdev->mres.mr_mtx);
        _mlx5_vdpa_put_mr(mvdev, mr);
-       mutex_unlock(&mvdev->mr_mtx);
+       mutex_unlock(&mvdev->mres.mr_mtx);
 }
 
 static void _mlx5_vdpa_get_mr(struct mlx5_vdpa_dev *mvdev,
 void mlx5_vdpa_get_mr(struct mlx5_vdpa_dev *mvdev,
                      struct mlx5_vdpa_mr *mr)
 {
-       mutex_lock(&mvdev->mr_mtx);
+       mutex_lock(&mvdev->mres.mr_mtx);
        _mlx5_vdpa_get_mr(mvdev, mr);
-       mutex_unlock(&mvdev->mr_mtx);
+       mutex_unlock(&mvdev->mres.mr_mtx);
 }
 
 void mlx5_vdpa_update_mr(struct mlx5_vdpa_dev *mvdev,
                         struct mlx5_vdpa_mr *new_mr,
                         unsigned int asid)
 {
-       struct mlx5_vdpa_mr *old_mr = mvdev->mr[asid];
+       struct mlx5_vdpa_mr *old_mr = mvdev->mres.mr[asid];
 
-       mutex_lock(&mvdev->mr_mtx);
+       mutex_lock(&mvdev->mres.mr_mtx);
 
        _mlx5_vdpa_put_mr(mvdev, old_mr);
-       mvdev->mr[asid] = new_mr;
+       mvdev->mres.mr[asid] = new_mr;
 
-       mutex_unlock(&mvdev->mr_mtx);
+       mutex_unlock(&mvdev->mres.mr_mtx);
 }
 
 static void mlx5_vdpa_show_mr_leaks(struct mlx5_vdpa_dev *mvdev)
 {
        struct mlx5_vdpa_mr *mr;
 
-       mutex_lock(&mvdev->mr_mtx);
+       mutex_lock(&mvdev->mres.mr_mtx);
 
-       list_for_each_entry(mr, &mvdev->mr_list_head, mr_list) {
+       list_for_each_entry(mr, &mvdev->mres.mr_list_head, mr_list) {
 
                mlx5_vdpa_warn(mvdev, "mkey still alive after resource delete: "
                                      "mr: %p, mkey: 0x%x, refcount: %u\n",
                                       mr, mr->mkey, refcount_read(&mr->refcount));
        }
 
-       mutex_unlock(&mvdev->mr_mtx);
+       mutex_unlock(&mvdev->mres.mr_mtx);
 
 }
 
        if (err)
                goto err_iotlb;
 
-       list_add_tail(&mr->mr_list, &mvdev->mr_list_head);
+       list_add_tail(&mr->mr_list, &mvdev->mres.mr_list_head);
 
        return 0;
 
        if (!mr)
                return ERR_PTR(-ENOMEM);
 
-       mutex_lock(&mvdev->mr_mtx);
+       mutex_lock(&mvdev->mres.mr_mtx);
        err = _mlx5_vdpa_create_mr(mvdev, mr, iotlb);
-       mutex_unlock(&mvdev->mr_mtx);
+       mutex_unlock(&mvdev->mres.mr_mtx);
 
        if (err)
                goto out_err;
 {
        int err;
 
-       if (mvdev->group2asid[MLX5_VDPA_CVQ_GROUP] != asid)
+       if (mvdev->mres.group2asid[MLX5_VDPA_CVQ_GROUP] != asid)
                return 0;
 
        spin_lock(&mvdev->cvq.iommu_lock);
 
                MLX5_SET64(virtio_q, vq_ctx, used_addr, mvq->device_addr);
                MLX5_SET64(virtio_q, vq_ctx, available_addr, mvq->driver_addr);
 
-               vq_mr = mvdev->mr[mvdev->group2asid[MLX5_VDPA_DATAVQ_GROUP]];
+               vq_mr = mvdev->mres.mr[mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_GROUP]];
                if (vq_mr)
                        MLX5_SET(virtio_q, vq_ctx, virtio_q_mkey, vq_mr->mkey);
 
-               vq_desc_mr = mvdev->mr[mvdev->group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP]];
+               vq_desc_mr = mvdev->mres.mr[mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP]];
                if (vq_desc_mr &&
                    MLX5_CAP_DEV_VDPA_EMULATION(mvdev->mdev, desc_group_mkey_supported))
                        MLX5_SET(virtio_q, vq_ctx, desc_group_mkey, vq_desc_mr->mkey);
                /* If there is no mr update, make sure that the existing ones are set
                 * modify to ready.
                 */
-               vq_mr = mvdev->mr[mvdev->group2asid[MLX5_VDPA_DATAVQ_GROUP]];
+               vq_mr = mvdev->mres.mr[mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_GROUP]];
                if (vq_mr)
                        mvq->modified_fields |= MLX5_VIRTQ_MODIFY_MASK_VIRTIO_Q_MKEY;
 
-               vq_desc_mr = mvdev->mr[mvdev->group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP]];
+               vq_desc_mr = mvdev->mres.mr[mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP]];
                if (vq_desc_mr)
                        mvq->modified_fields |= MLX5_VIRTQ_MODIFY_MASK_DESC_GROUP_MKEY;
        }
        }
 
        if (mvq->modified_fields & MLX5_VIRTQ_MODIFY_MASK_VIRTIO_Q_MKEY) {
-               vq_mr = mvdev->mr[mvdev->group2asid[MLX5_VDPA_DATAVQ_GROUP]];
+               vq_mr = mvdev->mres.mr[mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_GROUP]];
 
                if (vq_mr)
                        MLX5_SET(virtio_q, vq_ctx, virtio_q_mkey, vq_mr->mkey);
        }
 
        if (mvq->modified_fields & MLX5_VIRTQ_MODIFY_MASK_DESC_GROUP_MKEY) {
-               desc_mr = mvdev->mr[mvdev->group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP]];
+               desc_mr = mvdev->mres.mr[mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP]];
 
                if (desc_mr && MLX5_CAP_DEV_VDPA_EMULATION(mvdev->mdev, desc_group_mkey_supported))
                        MLX5_SET(virtio_q, vq_ctx, desc_group_mkey, desc_mr->mkey);
        struct mlx5_vdpa_dev *mvdev = &ndev->mvdev;
 
        if (mvq->modified_fields & MLX5_VIRTQ_MODIFY_MASK_VIRTIO_Q_MKEY) {
-               unsigned int asid = mvdev->group2asid[MLX5_VDPA_DATAVQ_GROUP];
-               struct mlx5_vdpa_mr *vq_mr = mvdev->mr[asid];
+               unsigned int asid = mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_GROUP];
+               struct mlx5_vdpa_mr *vq_mr = mvdev->mres.mr[asid];
 
                mlx5_vdpa_put_mr(mvdev, mvq->vq_mr);
                mlx5_vdpa_get_mr(mvdev, vq_mr);
        }
 
        if (mvq->modified_fields & MLX5_VIRTQ_MODIFY_MASK_DESC_GROUP_MKEY) {
-               unsigned int asid = mvdev->group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP];
-               struct mlx5_vdpa_mr *desc_mr = mvdev->mr[asid];
+               unsigned int asid = mvdev->mres.group2asid[MLX5_VDPA_DATAVQ_DESC_GROUP];
+               struct mlx5_vdpa_mr *desc_mr = mvdev->mres.mr[asid];
 
                mlx5_vdpa_put_mr(mvdev, mvq->desc_mr);
                mlx5_vdpa_get_mr(mvdev, desc_mr);
 
        /* default mapping all groups are mapped to asid 0 */
        for (i = 0; i < MLX5_VDPA_NUMVQ_GROUPS; i++)
-               mvdev->group2asid[i] = 0;
+               mvdev->mres.group2asid[i] = 0;
 }
 
 static bool needs_vqs_reset(const struct mlx5_vdpa_dev *mvdev)
                new_mr = NULL;
        }
 
-       if (!mvdev->mr[asid]) {
+       if (!mvdev->mres.mr[asid]) {
                mlx5_vdpa_update_mr(mvdev, new_mr, asid);
        } else {
                err = mlx5_vdpa_change_map(mvdev, new_mr, asid);
        if (group >= MLX5_VDPA_NUMVQ_GROUPS)
                return -EINVAL;
 
-       mvdev->group2asid[group] = asid;
+       mvdev->mres.group2asid[group] = asid;
 
-       mutex_lock(&mvdev->mr_mtx);
-       if (group == MLX5_VDPA_CVQ_GROUP && mvdev->mr[asid])
-               err = mlx5_vdpa_update_cvq_iotlb(mvdev, mvdev->mr[asid]->iotlb, asid);
-       mutex_unlock(&mvdev->mr_mtx);
+       mutex_lock(&mvdev->mres.mr_mtx);
+       if (group == MLX5_VDPA_CVQ_GROUP && mvdev->mres.mr[asid])
+               err = mlx5_vdpa_update_cvq_iotlb(mvdev, mvdev->mres.mr[asid]->iotlb, asid);
+       mutex_unlock(&mvdev->mres.mr_mtx);
 
        return err;
 }
        if (err)
                goto err_mpfs;
 
-       INIT_LIST_HEAD(&mvdev->mr_list_head);
+       INIT_LIST_HEAD(&mvdev->mres.mr_list_head);
 
        if (MLX5_CAP_GEN(mvdev->mdev, umem_uid_0)) {
                err = mlx5_vdpa_create_dma_mr(mvdev);