if (erofs_inode_is_data_compressed(vi->datalayout)) {
 #ifdef CONFIG_EROFS_FS_ZIP
-               if (!erofs_is_fscache_mode(inode->i_sb) &&
-                   inode->i_sb->s_blocksize_bits == PAGE_SHIFT) {
+               if (!erofs_is_fscache_mode(inode->i_sb)) {
+                       DO_ONCE_LITE_IF(inode->i_sb->s_blocksize != PAGE_SIZE,
+                                 erofs_info, inode->i_sb,
+                                 "EXPERIMENTAL EROFS subpage compressed block support in use. Use at your own risk!");
                        inode->i_mapping->a_ops = &z_erofs_aops;
                        err = 0;
                        goto out_unlock;
 
                        __GFP_NOMEMALLOC | __GFP_NORETRY | __GFP_NOWARN;
        unsigned int i;
 
+       if (i_blocksize(fe->inode) != PAGE_SIZE)
+               return;
        if (fe->mode < Z_EROFS_PCLUSTER_FOLLOWED)
                return;
 
        struct inode *const inode = fe->inode;
        struct erofs_map_blocks *const map = &fe->map;
        const loff_t offset = page_offset(page);
+       const unsigned int bs = i_blocksize(inode);
        bool tight = true, exclusive;
        unsigned int cur, end, len, split;
        int err = 0;
 
        z_erofs_onlinepage_init(page);
-
        split = 0;
        end = PAGE_SIZE;
 repeat:
         * for inplace I/O or bvpage (should be processed in a strict order.)
         */
        tight &= (fe->mode > Z_EROFS_PCLUSTER_FOLLOWED_NOINPLACE);
-       exclusive = (!cur && ((split <= 1) || tight));
+       exclusive = (!cur && ((split <= 1) || (tight && bs == PAGE_SIZE)));
        if (cur)
                tight &= (fe->mode >= Z_EROFS_PCLUSTER_FOLLOWED);