Move virtio_gpu_resource_id_{get,put} to virtgpu_object.c and make them
static.  Allocate and free the id on creation and destroy, drop all
other calls.  That way objects have a valid handle for the whole
lifetime of the object.
Also fixes ids leaking.  Worst offender are dumb buffers, and I think
some error paths too.
Signed-off-by: Gerd Hoffmann <kraxel@redhat.com>
Reviewed-by: Dave Airlie <airlied@redhat.com>
Link: http://patchwork.freedesktop.org/patch/msgid/20181019061847.18958-7-kraxel@redhat.com
 /* virtio vg */
 int virtio_gpu_alloc_vbufs(struct virtio_gpu_device *vgdev);
 void virtio_gpu_free_vbufs(struct virtio_gpu_device *vgdev);
-void virtio_gpu_resource_id_get(struct virtio_gpu_device *vgdev,
-                              uint32_t *resid);
-void virtio_gpu_resource_id_put(struct virtio_gpu_device *vgdev, uint32_t id);
 void virtio_gpu_cmd_create_resource(struct virtio_gpu_device *vgdev,
                                    struct virtio_gpu_object *bo,
                                    uint32_t format,
 
        if (IS_ERR(obj))
                return PTR_ERR(obj);
 
-       virtio_gpu_resource_id_get(vgdev, &obj->hw_res_handle);
        virtio_gpu_cmd_create_resource(vgdev, obj, format,
                                       mode_cmd.width, mode_cmd.height);
 
 
 
        format = virtio_gpu_translate_format(DRM_FORMAT_HOST_XRGB8888);
        obj = gem_to_virtio_gpu_obj(gobj);
-       virtio_gpu_resource_id_get(vgdev, &obj->hw_res_handle);
        virtio_gpu_cmd_create_resource(vgdev, obj, format,
                                       args->width, args->height);
 
 
        if (IS_ERR(qobj))
                return PTR_ERR(qobj);
        obj = &qobj->gem_base;
-       virtio_gpu_resource_id_get(vgdev, &qobj->hw_res_handle);
 
        if (!vgdev->has_virgl_3d) {
                virtio_gpu_cmd_create_resource(vgdev, qobj, rc->format,
 
 
 #include "virtgpu_drv.h"
 
+static void virtio_gpu_resource_id_get(struct virtio_gpu_device *vgdev,
+                                      uint32_t *resid)
+{
+       int handle;
+
+       idr_preload(GFP_KERNEL);
+       spin_lock(&vgdev->resource_idr_lock);
+       handle = idr_alloc(&vgdev->resource_idr, NULL, 1, 0, GFP_NOWAIT);
+       spin_unlock(&vgdev->resource_idr_lock);
+       idr_preload_end();
+       *resid = handle;
+}
+
+static void virtio_gpu_resource_id_put(struct virtio_gpu_device *vgdev, uint32_t id)
+{
+       spin_lock(&vgdev->resource_idr_lock);
+       idr_remove(&vgdev->resource_idr, id);
+       spin_unlock(&vgdev->resource_idr_lock);
+}
+
 static void virtio_gpu_ttm_bo_destroy(struct ttm_buffer_object *tbo)
 {
        struct virtio_gpu_object *bo;
        if (bo->vmap)
                virtio_gpu_object_kunmap(bo);
        drm_gem_object_release(&bo->gem_base);
+       virtio_gpu_resource_id_put(vgdev, bo->hw_res_handle);
        kfree(bo);
 }
 
        bo = kzalloc(sizeof(struct virtio_gpu_object), GFP_KERNEL);
        if (bo == NULL)
                return -ENOMEM;
+       virtio_gpu_resource_id_get(vgdev, &bo->hw_res_handle);
        size = roundup(size, PAGE_SIZE);
        ret = drm_gem_object_init(vgdev->ddev, &bo->gem_base, size);
        if (ret != 0) {
+               virtio_gpu_resource_id_put(vgdev, bo->hw_res_handle);
                kfree(bo);
                return ret;
        }
 
                               + MAX_INLINE_CMD_SIZE             \
                               + MAX_INLINE_RESP_SIZE)
 
-void virtio_gpu_resource_id_get(struct virtio_gpu_device *vgdev,
-                               uint32_t *resid)
-{
-       int handle;
-
-       idr_preload(GFP_KERNEL);
-       spin_lock(&vgdev->resource_idr_lock);
-       handle = idr_alloc(&vgdev->resource_idr, NULL, 1, 0, GFP_NOWAIT);
-       spin_unlock(&vgdev->resource_idr_lock);
-       idr_preload_end();
-       *resid = handle;
-}
-
-void virtio_gpu_resource_id_put(struct virtio_gpu_device *vgdev, uint32_t id)
-{
-       spin_lock(&vgdev->resource_idr_lock);
-       idr_remove(&vgdev->resource_idr, id);
-       spin_unlock(&vgdev->resource_idr_lock);
-}
-
 void virtio_gpu_ctrl_ack(struct virtqueue *vq)
 {
        struct drm_device *dev = vq->vdev->priv;