return index == vp_dev->admin_vq.vq_index;
 }
 
+static int virtqueue_exec_admin_cmd(struct virtio_pci_admin_vq *admin_vq,
+                                   struct scatterlist **sgs,
+                                   unsigned int out_num,
+                                   unsigned int in_num,
+                                   void *data)
+{
+       struct virtqueue *vq;
+       int ret, len;
+
+       vq = admin_vq->info.vq;
+       if (!vq)
+               return -EIO;
+
+       ret = virtqueue_add_sgs(vq, sgs, out_num, in_num, data, GFP_KERNEL);
+       if (ret < 0)
+               return -EIO;
+
+       if (unlikely(!virtqueue_kick(vq)))
+               return -EIO;
+
+       while (!virtqueue_get_buf(vq, &len) &&
+              !virtqueue_is_broken(vq))
+               cpu_relax();
+
+       if (virtqueue_is_broken(vq))
+               return -EIO;
+
+       return 0;
+}
+
+int vp_modern_admin_cmd_exec(struct virtio_device *vdev,
+                            struct virtio_admin_cmd *cmd)
+{
+       struct scatterlist *sgs[VIRTIO_AVQ_SGS_MAX], hdr, stat;
+       struct virtio_pci_device *vp_dev = to_vp_device(vdev);
+       struct virtio_admin_cmd_status *va_status;
+       unsigned int out_num = 0, in_num = 0;
+       struct virtio_admin_cmd_hdr *va_hdr;
+       u16 status;
+       int ret;
+
+       if (!virtio_has_feature(vdev, VIRTIO_F_ADMIN_VQ))
+               return -EOPNOTSUPP;
+
+       va_status = kzalloc(sizeof(*va_status), GFP_KERNEL);
+       if (!va_status)
+               return -ENOMEM;
+
+       va_hdr = kzalloc(sizeof(*va_hdr), GFP_KERNEL);
+       if (!va_hdr) {
+               ret = -ENOMEM;
+               goto err_alloc;
+       }
+
+       va_hdr->opcode = cmd->opcode;
+       va_hdr->group_type = cmd->group_type;
+       va_hdr->group_member_id = cmd->group_member_id;
+
+       /* Add header */
+       sg_init_one(&hdr, va_hdr, sizeof(*va_hdr));
+       sgs[out_num] = &hdr;
+       out_num++;
+
+       if (cmd->data_sg) {
+               sgs[out_num] = cmd->data_sg;
+               out_num++;
+       }
+
+       /* Add return status */
+       sg_init_one(&stat, va_status, sizeof(*va_status));
+       sgs[out_num + in_num] = &stat;
+       in_num++;
+
+       if (cmd->result_sg) {
+               sgs[out_num + in_num] = cmd->result_sg;
+               in_num++;
+       }
+
+       mutex_lock(&vp_dev->admin_vq.cmd_lock);
+       ret = virtqueue_exec_admin_cmd(&vp_dev->admin_vq, sgs,
+                                      out_num, in_num, sgs);
+       mutex_unlock(&vp_dev->admin_vq.cmd_lock);
+
+       if (ret) {
+               dev_err(&vdev->dev,
+                       "Failed to execute command on admin vq: %d\n.", ret);
+               goto err_cmd_exec;
+       }
+
+       status = le16_to_cpu(va_status->status);
+       if (status != VIRTIO_ADMIN_STATUS_OK) {
+               dev_err(&vdev->dev,
+                       "admin command error: status(%#x) qualifier(%#x)\n",
+                       status, le16_to_cpu(va_status->status_qualifier));
+               ret = -status;
+       }
+
+err_cmd_exec:
+       kfree(va_hdr);
+err_alloc:
+       kfree(va_status);
+       return ret;
+}
+
+static void vp_modern_avq_activate(struct virtio_device *vdev)
+{
+       struct virtio_pci_device *vp_dev = to_vp_device(vdev);
+       struct virtio_pci_admin_vq *admin_vq = &vp_dev->admin_vq;
+
+       if (!virtio_has_feature(vdev, VIRTIO_F_ADMIN_VQ))
+               return;
+
+       __virtqueue_unbreak(admin_vq->info.vq);
+}
+
+static void vp_modern_avq_deactivate(struct virtio_device *vdev)
+{
+       struct virtio_pci_device *vp_dev = to_vp_device(vdev);
+       struct virtio_pci_admin_vq *admin_vq = &vp_dev->admin_vq;
+
+       if (!virtio_has_feature(vdev, VIRTIO_F_ADMIN_VQ))
+               return;
+
+       __virtqueue_break(admin_vq->info.vq);
+}
+
 static void vp_transport_features(struct virtio_device *vdev, u64 features)
 {
        struct virtio_pci_device *vp_dev = to_vp_device(vdev);
        /* We should never be setting status to 0. */
        BUG_ON(status == 0);
        vp_modern_set_status(&vp_dev->mdev, status);
+       if (status & VIRTIO_CONFIG_S_DRIVER_OK)
+               vp_modern_avq_activate(vdev);
 }
 
 static void vp_reset(struct virtio_device *vdev)
         */
        while (vp_modern_get_status(mdev))
                msleep(1);
+
+       vp_modern_avq_deactivate(vdev);
+
        /* Flush pending VQ/configuration callbacks. */
        vp_synchronize_vectors(vdev);
 }
                goto err;
        }
 
-       if (is_avq)
+       if (is_avq) {
+               mutex_lock(&vp_dev->admin_vq.cmd_lock);
                vp_dev->admin_vq.info.vq = vq;
+               mutex_unlock(&vp_dev->admin_vq.cmd_lock);
+       }
 
        return vq;
 
        struct virtio_pci_device *vp_dev = to_vp_device(vq->vdev);
        struct virtio_pci_modern_device *mdev = &vp_dev->mdev;
 
-       if (vp_is_avq(&vp_dev->vdev, vq->index))
+       if (vp_is_avq(&vp_dev->vdev, vq->index)) {
+               mutex_lock(&vp_dev->admin_vq.cmd_lock);
                vp_dev->admin_vq.info.vq = NULL;
+               mutex_unlock(&vp_dev->admin_vq.cmd_lock);
+       }
 
        if (vp_dev->msix_enabled)
                vp_modern_queue_vector(mdev, vq->index,
        vp_dev->isr = mdev->isr;
        vp_dev->vdev.id = mdev->id;
 
+       mutex_init(&vp_dev->admin_vq.cmd_lock);
        return 0;
 }
 
 {
        struct virtio_pci_modern_device *mdev = &vp_dev->mdev;
 
+       mutex_destroy(&vp_dev->admin_vq.cmd_lock);
        vp_modern_remove(mdev);
 }