if (!ns)
                goto done;
 
+       if (ns->bdev)
+               nvmet_bdev_ns_revalidate(ns);
+       else
+               nvmet_file_ns_revalidate(ns);
+
        /*
         * nuse = ncap = nsze isn't always true, but we have no way to find
         * that out from the underlying device.
 
        }
 }
 
+void nvmet_bdev_ns_revalidate(struct nvmet_ns *ns)
+{
+       ns->size = i_size_read(ns->bdev->bd_inode);
+}
+
 static u16 blk_to_nvme_status(struct nvmet_req *req, blk_status_t blk_sts)
 {
        u16 status = NVME_SC_SUCCESS;
 
 #define NVMET_MAX_MPOOL_BVEC           16
 #define NVMET_MIN_MPOOL_OBJ            16
 
+int nvmet_file_ns_revalidate(struct nvmet_ns *ns)
+{
+       struct kstat stat;
+       int ret;
+
+       ret = vfs_getattr(&ns->file->f_path, &stat, STATX_SIZE,
+                         AT_STATX_FORCE_SYNC);
+       if (!ret)
+               ns->size = stat.size;
+       return ret;
+}
+
 void nvmet_file_ns_disable(struct nvmet_ns *ns)
 {
        if (ns->file) {
 int nvmet_file_ns_enable(struct nvmet_ns *ns)
 {
        int flags = O_RDWR | O_LARGEFILE;
-       struct kstat stat;
        int ret;
 
        if (!ns->buffered_io)
                return PTR_ERR(ns->file);
        }
 
-       ret = vfs_getattr(&ns->file->f_path,
-                       &stat, STATX_SIZE, AT_STATX_FORCE_SYNC);
+       ret = nvmet_file_ns_revalidate(ns);
        if (ret)
                goto err;
 
-       ns->size = stat.size;
        /*
         * i_blkbits can be greater than the universally accepted upper bound,
         * so make sure we export a sane namespace lba_shift.
 
 u16 nvmet_bdev_flush(struct nvmet_req *req);
 u16 nvmet_file_flush(struct nvmet_req *req);
 void nvmet_ns_changed(struct nvmet_subsys *subsys, u32 nsid);
+void nvmet_bdev_ns_revalidate(struct nvmet_ns *ns);
+int nvmet_file_ns_revalidate(struct nvmet_ns *ns);
 
 static inline u32 nvmet_rw_len(struct nvmet_req *req)
 {