ret = dma_alloc_from_pool(size, &page, flags);
                if (!ret)
                        return NULL;
-               *dma_handle = phys_to_dma(dev, page_to_phys(page));
-               return ret;
+               goto done;
        }
 
        page = __dma_direct_alloc_pages(dev, size, dma_handle, flags, attrs);
        /* remove any dirty cache lines on the kernel alias */
        arch_dma_prep_coherent(page, size);
 
-       if (attrs & DMA_ATTR_NO_KERNEL_MAPPING)
-               return page; /* opaque cookie */
+       if (attrs & DMA_ATTR_NO_KERNEL_MAPPING) {
+               ret = page; /* opaque cookie */
+               goto done;
+       }
 
        /* create a coherent mapping */
        ret = dma_common_contiguous_remap(page, size, VM_USERMAP,
                return ret;
        }
 
-       *dma_handle = phys_to_dma(dev, page_to_phys(page));
        memset(ret, 0, size);
-
+done:
+       *dma_handle = phys_to_dma(dev, page_to_phys(page));
        return ret;
 }