*/
        Z_EROFS_PCLUSTER_FOLLOWED_NOINPLACE,
        /*
-        * The current collection has been linked with the owned chain, and
-        * could also be linked with the remaining collections, which means
-        * if the processing page is the tail page of the collection, thus
-        * the current collection can safely use the whole page (since
-        * the previous collection is under control) for in-place I/O, as
-        * illustrated below:
-        *  ________________________________________________________________
-        * |  tail (partial) page |          head (partial) page           |
-        * |  (of the current cl) |      (of the previous collection)      |
-        * |                      |                                        |
-        * |__PCLUSTER_FOLLOWED___|___________PCLUSTER_FOLLOWED____________|
+        * The pcluster was just linked to a decompression chain by us.  It can
+        * also be linked with the remaining pclusters, which means if the
+        * processing page is the tail page of a pcluster, this pcluster can
+        * safely use the whole page (since the previous pcluster is within the
+        * same chain) for in-place I/O, as illustrated below:
+        *  ___________________________________________________
+        * |  tail (partial) page  |    head (partial) page    |
+        * |  (of the current pcl) |   (of the previous pcl)   |
+        * |___PCLUSTER_FOLLOWED___|_____PCLUSTER_FOLLOWED_____|
         *
-        * [  (*) the above page can be used as inplace I/O.               ]
+        * [  (*) the page above can be used as inplace I/O.   ]
         */
        Z_EROFS_PCLUSTER_FOLLOWED,
 };
        return err;
 }
 
-static int z_erofs_collector_begin(struct z_erofs_decompress_frontend *fe)
+static int z_erofs_pcluster_begin(struct z_erofs_decompress_frontend *fe)
 {
        struct erofs_map_blocks *map = &fe->map;
        struct erofs_workgroup *grp = NULL;
        call_rcu(&pcl->rcu, z_erofs_rcu_callback);
 }
 
-static bool z_erofs_collector_end(struct z_erofs_decompress_frontend *fe)
+static void z_erofs_pcluster_end(struct z_erofs_decompress_frontend *fe)
 {
        struct z_erofs_pcluster *pcl = fe->pcl;
 
        if (!pcl)
-               return false;
+               return;
 
        z_erofs_bvec_iter_end(&fe->biter);
        mutex_unlock(&pcl->lock);
                erofs_workgroup_put(&pcl->obj);
 
        fe->pcl = NULL;
-       return true;
+       fe->backmost = false;
 }
 
 static int z_erofs_read_fragment(struct super_block *sb, struct page *page,
 
        if (offset + cur < map->m_la ||
            offset + cur >= map->m_la + map->m_llen) {
-               if (z_erofs_collector_end(fe))
-                       fe->backmost = false;
+               z_erofs_pcluster_end(fe);
                map->m_la = offset + cur;
                map->m_llen = 0;
                err = z_erofs_map_blocks_iter(inode, map, 0);
            map->m_flags & EROFS_MAP_FRAGMENT)
                goto hitted;
 
-       err = z_erofs_collector_begin(fe);
+       err = z_erofs_pcluster_begin(fe);
        if (err)
                goto out;
 
        z_erofs_pcluster_readmore(&f, NULL, true);
        err = z_erofs_do_read_page(&f, page);
        z_erofs_pcluster_readmore(&f, NULL, false);
-       (void)z_erofs_collector_end(&f);
+       z_erofs_pcluster_end(&f);
 
        /* if some compressed cluster ready, need submit them anyway */
        z_erofs_runqueue(&f, z_erofs_is_sync_decompress(sbi, 0), false);
                put_page(page);
        }
        z_erofs_pcluster_readmore(&f, rac, false);
-       (void)z_erofs_collector_end(&f);
+       z_erofs_pcluster_end(&f);
 
        z_erofs_runqueue(&f, z_erofs_is_sync_decompress(sbi, nr_pages), true);
        erofs_put_metabuf(&f.map.buf);