unsigned int cluster_size = F2FS_I(inode)->i_cluster_size;
        int count, i;
 
-       for (i = 1, count = 1; i < cluster_size; i++) {
+       for (i = 0, count = 0; i < cluster_size; i++) {
                block_t blkaddr = data_blkaddr(dn->inode, dn->node_page,
                                                        dn->ofs_in_node + i);
 
        return count;
 }
 
-static int __f2fs_cluster_blocks(struct inode *inode,
-                               unsigned int cluster_idx, bool compr_blks)
+static int __f2fs_cluster_blocks(struct inode *inode, unsigned int cluster_idx,
+                               enum cluster_check_type type)
 {
        struct dnode_of_data dn;
        unsigned int start_idx = cluster_idx <<
        }
 
        if (dn.data_blkaddr == COMPRESS_ADDR) {
-               if (compr_blks)
-                       ret = __f2fs_get_cluster_blocks(inode, &dn);
-               else
+               if (type == CLUSTER_COMPR_BLKS)
+                       ret = 1 + __f2fs_get_cluster_blocks(inode, &dn);
+               else if (type == CLUSTER_IS_COMPR)
                        ret = 1;
+       } else if (type == CLUSTER_RAW_BLKS) {
+               ret = __f2fs_get_cluster_blocks(inode, &dn);
        }
 fail:
        f2fs_put_dnode(&dn);
 /* return # of compressed blocks in compressed cluster */
 static int f2fs_compressed_blocks(struct compress_ctx *cc)
 {
-       return __f2fs_cluster_blocks(cc->inode, cc->cluster_idx, true);
+       return __f2fs_cluster_blocks(cc->inode, cc->cluster_idx,
+               CLUSTER_COMPR_BLKS);
+}
+
+/* return # of raw blocks in non-compressed cluster */
+static int f2fs_decompressed_blocks(struct inode *inode,
+                               unsigned int cluster_idx)
+{
+       return __f2fs_cluster_blocks(inode, cluster_idx,
+               CLUSTER_RAW_BLKS);
 }
 
 /* return whether cluster is compressed one or not */
 {
        return __f2fs_cluster_blocks(inode,
                index >> F2FS_I(inode)->i_log_cluster_size,
-               false);
+               CLUSTER_IS_COMPR);
+}
+
+/* return whether cluster contains non raw blocks or not */
+bool f2fs_is_sparse_cluster(struct inode *inode, pgoff_t index)
+{
+       unsigned int cluster_idx = index >> F2FS_I(inode)->i_log_cluster_size;
+
+       return f2fs_decompressed_blocks(inode, cluster_idx) !=
+               F2FS_I(inode)->i_cluster_size;
 }
 
 static bool cluster_may_compress(struct compress_ctx *cc)
 
  * compress.c
  */
 #ifdef CONFIG_F2FS_FS_COMPRESSION
+enum cluster_check_type {
+       CLUSTER_IS_COMPR,   /* check only if compressed cluster */
+       CLUSTER_COMPR_BLKS, /* return # of compressed blocks in a cluster */
+       CLUSTER_RAW_BLKS    /* return # of raw blocks in a cluster */
+};
 bool f2fs_is_compressed_page(struct page *page);
 struct page *f2fs_compress_control_page(struct page *page);
 int f2fs_prepare_compress_overwrite(struct inode *inode,
                                                struct writeback_control *wbc,
                                                enum iostat_type io_type);
 int f2fs_is_compressed_cluster(struct inode *inode, pgoff_t index);
+bool f2fs_is_sparse_cluster(struct inode *inode, pgoff_t index);
 void f2fs_update_read_extent_tree_range_compressed(struct inode *inode,
                                pgoff_t fofs, block_t blkaddr,
                                unsigned int llen, unsigned int c_len);
 static inline void f2fs_invalidate_compress_pages(struct f2fs_sb_info *sbi,
                                                        nid_t ino) { }
 #define inc_compr_inode_stat(inode)            do { } while (0)
+static inline int f2fs_is_compressed_cluster(
+                               struct inode *inode,
+                               pgoff_t index) { return 0; }
+static inline bool f2fs_is_sparse_cluster(
+                               struct inode *inode,
+                               pgoff_t index) { return true; }
 static inline void f2fs_update_read_extent_tree_range_compressed(
                                struct inode *inode,
                                pgoff_t fofs, block_t blkaddr,
 
        struct inode *inode = file_inode(filp);
        struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
        struct f2fs_inode_info *fi = F2FS_I(inode);
-       pgoff_t page_idx = 0, last_idx;
-       int cluster_size = fi->i_cluster_size;
-       int count, ret;
+       pgoff_t page_idx = 0, last_idx, cluster_idx;
+       int ret;
 
        if (!f2fs_sb_has_compression(sbi) ||
                        F2FS_OPTION(sbi).compress_mode != COMPR_MODE_USER)
                goto out;
 
        last_idx = DIV_ROUND_UP(i_size_read(inode), PAGE_SIZE);
+       last_idx >>= fi->i_log_cluster_size;
+
+       for (cluster_idx = 0; cluster_idx < last_idx; cluster_idx++) {
+               page_idx = cluster_idx << fi->i_log_cluster_size;
+
+               if (!f2fs_is_compressed_cluster(inode, page_idx))
+                       continue;
 
-       count = last_idx - page_idx;
-       while (count && count >= cluster_size) {
-               ret = redirty_blocks(inode, page_idx, cluster_size);
+               ret = redirty_blocks(inode, page_idx, fi->i_cluster_size);
                if (ret < 0)
                        break;
 
                                break;
                }
 
-               count -= cluster_size;
-               page_idx += cluster_size;
-
                cond_resched();
                if (fatal_signal_pending(current)) {
                        ret = -EINTR;
 {
        struct inode *inode = file_inode(filp);
        struct f2fs_sb_info *sbi = F2FS_I_SB(inode);
-       pgoff_t page_idx = 0, last_idx;
-       int cluster_size = F2FS_I(inode)->i_cluster_size;
-       int count, ret;
+       struct f2fs_inode_info *fi = F2FS_I(inode);
+       pgoff_t page_idx = 0, last_idx, cluster_idx;
+       int ret;
 
        if (!f2fs_sb_has_compression(sbi) ||
                        F2FS_OPTION(sbi).compress_mode != COMPR_MODE_USER)
        set_inode_flag(inode, FI_ENABLE_COMPRESS);
 
        last_idx = DIV_ROUND_UP(i_size_read(inode), PAGE_SIZE);
+       last_idx >>= fi->i_log_cluster_size;
 
-       count = last_idx - page_idx;
-       while (count && count >= cluster_size) {
-               ret = redirty_blocks(inode, page_idx, cluster_size);
+       for (cluster_idx = 0; cluster_idx < last_idx; cluster_idx++) {
+               page_idx = cluster_idx << fi->i_log_cluster_size;
+
+               if (f2fs_is_sparse_cluster(inode, page_idx))
+                       continue;
+
+               ret = redirty_blocks(inode, page_idx, fi->i_cluster_size);
                if (ret < 0)
                        break;
 
                                break;
                }
 
-               count -= cluster_size;
-               page_idx += cluster_size;
-
                cond_resched();
                if (fatal_signal_pending(current)) {
                        ret = -EINTR;