/*
  * Check if request is within bounds and aligned on zram logical blocks.
  */
-static inline int valid_io_request(struct zram *zram, struct bio *bio)
+static inline int valid_io_request(struct zram *zram,
+               sector_t start, unsigned int size)
 {
-       u64 start, end, bound;
+       u64 end, bound;
 
        /* unaligned request */
-       if (unlikely(bio->bi_iter.bi_sector &
-                    (ZRAM_SECTOR_PER_LOGICAL_BLOCK - 1)))
+       if (unlikely(start & (ZRAM_SECTOR_PER_LOGICAL_BLOCK - 1)))
                return 0;
-       if (unlikely(bio->bi_iter.bi_size & (ZRAM_LOGICAL_BLOCK_SIZE - 1)))
+       if (unlikely(size & (ZRAM_LOGICAL_BLOCK_SIZE - 1)))
                return 0;
 
-       start = bio->bi_iter.bi_sector;
-       end = start + (bio->bi_iter.bi_size >> SECTOR_SHIFT);
+       end = start + (size >> SECTOR_SHIFT);
        bound = zram->disksize >> SECTOR_SHIFT;
        /* out of range range */
        if (unlikely(start >= bound || end > bound || start > end))
        if (unlikely(!init_done(zram)))
                goto error;
 
-       if (!valid_io_request(zram, bio)) {
+       if (!valid_io_request(zram, bio->bi_iter.bi_sector,
+                                       bio->bi_iter.bi_size)) {
                atomic64_inc(&zram->stats.invalid_io);
                goto error;
        }