return sgt;
 }
 
-static void virtio_gpu_queue_ctrl_sgs(struct virtio_gpu_device *vgdev,
-                                     struct virtio_gpu_vbuffer *vbuf,
-                                     struct virtio_gpu_fence *fence,
-                                     int elemcnt,
-                                     struct scatterlist **sgs,
-                                     int outcnt,
-                                     int incnt)
+static int virtio_gpu_queue_ctrl_sgs(struct virtio_gpu_device *vgdev,
+                                    struct virtio_gpu_vbuffer *vbuf,
+                                    struct virtio_gpu_fence *fence,
+                                    int elemcnt,
+                                    struct scatterlist **sgs,
+                                    int outcnt,
+                                    int incnt)
 {
        struct virtqueue *vq = vgdev->ctrlq.vq;
        int ret, idx;
                if (fence && vbuf->objs)
                        virtio_gpu_array_unlock_resv(vbuf->objs);
                free_vbuf(vgdev, vbuf);
-               return;
+               return -1;
        }
 
        if (vgdev->has_indirect)
        spin_unlock(&vgdev->ctrlq.qlock);
 
        drm_dev_exit(idx);
+       return 0;
 }
 
-static void virtio_gpu_queue_fenced_ctrl_buffer(struct virtio_gpu_device *vgdev,
-                                               struct virtio_gpu_vbuffer *vbuf,
-                                               struct virtio_gpu_fence *fence)
+static int virtio_gpu_queue_fenced_ctrl_buffer(struct virtio_gpu_device *vgdev,
+                                              struct virtio_gpu_vbuffer *vbuf,
+                                              struct virtio_gpu_fence *fence)
 {
        struct scatterlist *sgs[3], vcmd, vout, vresp;
        struct sg_table *sgt = NULL;
-       int elemcnt = 0, outcnt = 0, incnt = 0;
+       int elemcnt = 0, outcnt = 0, incnt = 0, ret;
 
        /* set up vcmd */
        sg_init_one(&vcmd, vbuf->buf, vbuf->size);
                        if (!sgt) {
                                if (fence && vbuf->objs)
                                        virtio_gpu_array_unlock_resv(vbuf->objs);
-                               return;
+                               return -1;
                        }
 
                        elemcnt += sg_ents;
                incnt++;
        }
 
-       virtio_gpu_queue_ctrl_sgs(vgdev, vbuf, fence, elemcnt, sgs, outcnt,
-                                 incnt);
+       ret = virtio_gpu_queue_ctrl_sgs(vgdev, vbuf, fence, elemcnt, sgs, outcnt,
+                                       incnt);
 
        if (sgt) {
                sg_free_table(sgt);
                kfree(sgt);
        }
+       return ret;
 }
 
 void virtio_gpu_notify(struct virtio_gpu_device *vgdev)
                virtqueue_notify(vgdev->ctrlq.vq);
 }
 
-static void virtio_gpu_queue_ctrl_buffer(struct virtio_gpu_device *vgdev,
-                                        struct virtio_gpu_vbuffer *vbuf)
+static int virtio_gpu_queue_ctrl_buffer(struct virtio_gpu_device *vgdev,
+                                       struct virtio_gpu_vbuffer *vbuf)
 {
-       virtio_gpu_queue_fenced_ctrl_buffer(vgdev, vbuf, NULL);
+       return virtio_gpu_queue_fenced_ctrl_buffer(vgdev, vbuf, NULL);
 }
 
 static void virtio_gpu_queue_cursor(struct virtio_gpu_device *vgdev,