ttm_bo_kunmap(&nvbo->kmap);
 }
 
+void
+nouveau_bo_sync_for_device(struct nouveau_bo *nvbo)
+{
+       struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
+       struct nouveau_device *device = nvkm_device(&drm->device);
+       struct ttm_dma_tt *ttm_dma = (struct ttm_dma_tt *)nvbo->bo.ttm;
+       int i;
+
+       if (!ttm_dma)
+               return;
+
+       /* Don't waste time looping if the object is coherent */
+       if (nvbo->force_coherent)
+               return;
+
+       for (i = 0; i < ttm_dma->ttm.num_pages; i++)
+               dma_sync_single_for_device(nv_device_base(device),
+                       ttm_dma->dma_address[i], PAGE_SIZE, DMA_TO_DEVICE);
+}
+
+void
+nouveau_bo_sync_for_cpu(struct nouveau_bo *nvbo)
+{
+       struct nouveau_drm *drm = nouveau_bdev(nvbo->bo.bdev);
+       struct nouveau_device *device = nvkm_device(&drm->device);
+       struct ttm_dma_tt *ttm_dma = (struct ttm_dma_tt *)nvbo->bo.ttm;
+       int i;
+
+       if (!ttm_dma)
+               return;
+
+       /* Don't waste time looping if the object is coherent */
+       if (nvbo->force_coherent)
+               return;
+
+       for (i = 0; i < ttm_dma->ttm.num_pages; i++)
+               dma_sync_single_for_cpu(nv_device_base(device),
+                       ttm_dma->dma_address[i], PAGE_SIZE, DMA_FROM_DEVICE);
+}
+
 int
 nouveau_bo_validate(struct nouveau_bo *nvbo, bool interruptible,
                    bool no_wait_gpu)
        if (ret)
                return ret;
 
+       nouveau_bo_sync_for_device(nvbo);
+
        return 0;
 }
 
 
 void nouveau_bo_fence(struct nouveau_bo *, struct nouveau_fence *, bool exclusive);
 int  nouveau_bo_validate(struct nouveau_bo *, bool interruptible,
                         bool no_wait_gpu);
+void nouveau_bo_sync_for_device(struct nouveau_bo *nvbo);
+void nouveau_bo_sync_for_cpu(struct nouveau_bo *nvbo);
 
 struct nouveau_vma *
 nouveau_bo_vma_find(struct nouveau_bo *, struct nouveau_vm *);
 
                else
                        ret = lret;
        }
+       nouveau_bo_sync_for_cpu(nvbo);
        drm_gem_object_unreference_unlocked(gem);
 
        return ret;
 nouveau_gem_ioctl_cpu_fini(struct drm_device *dev, void *data,
                           struct drm_file *file_priv)
 {
+       struct drm_nouveau_gem_cpu_fini *req = data;
+       struct drm_gem_object *gem;
+       struct nouveau_bo *nvbo;
+
+       gem = drm_gem_object_lookup(dev, file_priv, req->handle);
+       if (!gem)
+               return -ENOENT;
+       nvbo = nouveau_gem_object(gem);
+
+       nouveau_bo_sync_for_device(nvbo);
+       drm_gem_object_unreference_unlocked(gem);
        return 0;
 }