/*
         * Now that we've unmap all full blocks we'll have to zero out any
-        * partial block at the beginning and/or end.  xfs_zero_range is
-        * smart enough to skip any holes, including those we just created,
-        * but we must take care not to zero beyond EOF and enlarge i_size.
+        * partial block at the beginning and/or end.  iomap_zero_range is smart
+        * enough to skip any holes, including those we just created, but we
+        * must take care not to zero beyond EOF and enlarge i_size.
         */
-
        if (offset >= XFS_ISIZE(ip))
                return 0;
-
        if (offset + len > XFS_ISIZE(ip))
                len = XFS_ISIZE(ip) - offset;
-
-       return xfs_zero_range(ip, offset, len, NULL);
+       return iomap_zero_range(VFS_I(ip), offset, len, NULL, &xfs_iomap_ops);
 }
 
 /*
 
 
 static const struct vm_operations_struct xfs_file_vm_ops;
 
-/*
- * Clear the specified ranges to zero through either the pagecache or DAX.
- * Holes and unwritten extents will be left as-is as they already are zeroed.
- */
-int
-xfs_zero_range(
-       struct xfs_inode        *ip,
-       xfs_off_t               pos,
-       xfs_off_t               count,
-       bool                    *did_zero)
-{
-       return iomap_zero_range(VFS_I(ip), pos, count, did_zero, &xfs_iomap_ops);
-}
-
 int
 xfs_update_prealloc_flags(
        struct xfs_inode        *ip,
        return ret;
 }
 
-/*
- * Zero any on disk space between the current EOF and the new, larger EOF.
- *
- * This handles the normal case of zeroing the remainder of the last block in
- * the file and the unusual case of zeroing blocks out beyond the size of the
- * file.  This second case only happens with fixed size extents and when the
- * system crashes before the inode size was updated but after blocks were
- * allocated.
- *
- * Expects the iolock to be held exclusive, and will take the ilock internally.
- */
-int                                    /* error (positive) */
-xfs_zero_eof(
-       struct xfs_inode        *ip,
-       xfs_off_t               offset,         /* starting I/O offset */
-       xfs_fsize_t             isize,          /* current inode size */
-       bool                    *did_zeroing)
-{
-       ASSERT(xfs_isilocked(ip, XFS_IOLOCK_EXCL));
-       ASSERT(offset > isize);
-
-       trace_xfs_zero_eof(ip, isize, offset - isize);
-       return xfs_zero_range(ip, isize, offset - isize, did_zeroing);
-}
-
 /*
  * Common pre-write limit and setup checks.
  *
        ssize_t                 error = 0;
        size_t                  count = iov_iter_count(from);
        bool                    drained_dio = false;
+       loff_t                  isize;
 
 restart:
        error = generic_write_checks(iocb, from);
         * and hence be able to correctly determine if we need to run zeroing.
         */
        spin_lock(&ip->i_flags_lock);
-       if (iocb->ki_pos > i_size_read(inode)) {
+       isize = i_size_read(inode);
+       if (iocb->ki_pos > isize) {
                spin_unlock(&ip->i_flags_lock);
                if (!drained_dio) {
                        if (*iolock == XFS_IOLOCK_SHARED) {
                        drained_dio = true;
                        goto restart;
                }
-               error = xfs_zero_eof(ip, iocb->ki_pos, i_size_read(inode), NULL);
+       
+               trace_xfs_zero_eof(ip, isize, iocb->ki_pos - isize);
+               error = iomap_zero_range(inode, isize, iocb->ki_pos - isize,
+                               NULL, &xfs_iomap_ops);
                if (error)
                        return error;
        } else
 
 
 int    xfs_update_prealloc_flags(struct xfs_inode *ip,
                                  enum xfs_prealloc_flags flags);
-int    xfs_zero_eof(struct xfs_inode *ip, xfs_off_t offset,
-                    xfs_fsize_t isize, bool *did_zeroing);
-int    xfs_zero_range(struct xfs_inode *ip, xfs_off_t pos, xfs_off_t count,
-               bool *did_zero);
 
 /* from xfs_iops.c */
 extern void xfs_setup_inode(struct xfs_inode *ip);
 
         * truncate.
         */
        if (newsize > oldsize) {
-               error = xfs_zero_eof(ip, newsize, oldsize, &did_zeroing);
+               trace_xfs_zero_eof(ip, oldsize, newsize - oldsize);
+               error = iomap_zero_range(inode, oldsize, newsize - oldsize,
+                               &did_zeroing, &xfs_iomap_ops);
        } else {
                error = iomap_truncate_page(inode, newsize, &did_zeroing,
                                &xfs_iomap_ops);