* but an IOMMU which supports smaller pages might not map the whole thing.
  */
 static struct page **__iommu_dma_alloc_noncontiguous(struct device *dev,
-               size_t size, struct sg_table *sgt, gfp_t gfp, pgprot_t prot,
-               unsigned long attrs)
+               size_t size, struct sg_table *sgt, gfp_t gfp, unsigned long attrs)
 {
        struct iommu_domain *domain = iommu_get_dma_domain(dev);
        struct iommu_dma_cookie *cookie = domain->iova_cookie;
 }
 
 static void *iommu_dma_alloc_remap(struct device *dev, size_t size,
-               dma_addr_t *dma_handle, gfp_t gfp, pgprot_t prot,
-               unsigned long attrs)
+               dma_addr_t *dma_handle, gfp_t gfp, unsigned long attrs)
 {
        struct page **pages;
        struct sg_table sgt;
        void *vaddr;
+       pgprot_t prot = dma_pgprot(dev, PAGE_KERNEL, attrs);
 
-       pages = __iommu_dma_alloc_noncontiguous(dev, size, &sgt, gfp, prot,
-                                               attrs);
+       pages = __iommu_dma_alloc_noncontiguous(dev, size, &sgt, gfp, attrs);
        if (!pages)
                return NULL;
        *dma_handle = sgt.sgl->dma_address;
        if (!sh)
                return NULL;
 
-       sh->pages = __iommu_dma_alloc_noncontiguous(dev, size, &sh->sgt, gfp,
-                                                   PAGE_KERNEL, attrs);
+       sh->pages = __iommu_dma_alloc_noncontiguous(dev, size, &sh->sgt, gfp, attrs);
        if (!sh->pages) {
                kfree(sh);
                return NULL;
 
        if (gfpflags_allow_blocking(gfp) &&
            !(attrs & DMA_ATTR_FORCE_CONTIGUOUS)) {
-               return iommu_dma_alloc_remap(dev, size, handle, gfp,
-                               dma_pgprot(dev, PAGE_KERNEL, attrs), attrs);
+               return iommu_dma_alloc_remap(dev, size, handle, gfp, attrs);
        }
 
        if (IS_ENABLED(CONFIG_DMA_DIRECT_REMAP) &&