if (IS_ERR(vma))
                        return PTR_ERR(vma);
 
-               ret = msm_gem_init_vma(aspace, vma, obj->size >> PAGE_SHIFT,
+               ret = msm_gem_init_vma(aspace, vma, obj->size,
                        range_start, range_end);
                if (ret) {
                        del_vma(vma);
        if (IS_ERR(pages))
                return PTR_ERR(pages);
 
-       ret = msm_gem_map_vma(aspace, vma, prot,
-                       msm_obj->sgt, obj->size >> PAGE_SHIFT);
+       ret = msm_gem_map_vma(aspace, vma, prot, msm_obj->sgt, obj->size);
 
        if (!ret)
                msm_obj->pin_count++;
 
 };
 
 int msm_gem_init_vma(struct msm_gem_address_space *aspace,
-               struct msm_gem_vma *vma, int npages,
+               struct msm_gem_vma *vma, int size,
                u64 range_start, u64 range_end);
 bool msm_gem_vma_inuse(struct msm_gem_vma *vma);
 void msm_gem_purge_vma(struct msm_gem_address_space *aspace,
                struct msm_gem_vma *vma);
 int msm_gem_map_vma(struct msm_gem_address_space *aspace,
                struct msm_gem_vma *vma, int prot,
-               struct sg_table *sgt, int npages);
+               struct sg_table *sgt, int size);
 void msm_gem_close_vma(struct msm_gem_address_space *aspace,
                struct msm_gem_vma *vma);
 
 
 void msm_gem_purge_vma(struct msm_gem_address_space *aspace,
                struct msm_gem_vma *vma)
 {
-       unsigned size = vma->node.size << PAGE_SHIFT;
+       unsigned size = vma->node.size;
 
        /* Print a message if we try to purge a vma in use */
        if (GEM_WARN_ON(msm_gem_vma_inuse(vma)))
 int
 msm_gem_map_vma(struct msm_gem_address_space *aspace,
                struct msm_gem_vma *vma, int prot,
-               struct sg_table *sgt, int npages)
+               struct sg_table *sgt, int size)
 {
-       unsigned size = npages << PAGE_SHIFT;
        int ret = 0;
 
        if (GEM_WARN_ON(!vma->iova))
 
 /* Initialize a new vma and allocate an iova for it */
 int msm_gem_init_vma(struct msm_gem_address_space *aspace,
-               struct msm_gem_vma *vma, int npages,
+               struct msm_gem_vma *vma, int size,
                u64 range_start, u64 range_end)
 {
        int ret;
                return -EBUSY;
 
        spin_lock(&aspace->lock);
-       ret = drm_mm_insert_node_in_range(&aspace->mm, &vma->node, npages, 0,
-               0, range_start, range_end, 0);
+       ret = drm_mm_insert_node_in_range(&aspace->mm, &vma->node,
+                                         size, PAGE_SIZE, 0,
+                                         range_start, range_end, 0);
        spin_unlock(&aspace->lock);
 
        if (ret)
                return ret;
 
-       vma->iova = vma->node.start << PAGE_SHIFT;
+       vma->iova = vma->node.start;
        vma->mapped = false;
 
        kref_get(&aspace->kref);
        aspace->name = name;
        aspace->mmu = mmu;
 
-       drm_mm_init(&aspace->mm, va_start >> PAGE_SHIFT, size >> PAGE_SHIFT);
+       drm_mm_init(&aspace->mm, va_start, size);
 
        kref_init(&aspace->kref);