return ret;
 }
 
-static inline bool disk_zone_is_conv(struct gendisk *disk, sector_t sector)
-{
-       unsigned long *bitmap;
-       bool is_conv;
-
-       rcu_read_lock();
-       bitmap = rcu_dereference(disk->conv_zones_bitmap);
-       is_conv = bitmap && test_bit(disk_zone_no(disk, sector), bitmap);
-       rcu_read_unlock();
-
-       return is_conv;
-}
-
 static bool disk_zone_is_last(struct gendisk *disk, struct blk_zone *zone)
 {
        return zone->start + zone->len >= get_capacity(disk);
        struct blk_zone_wplug *zwplug;
 
        /* Conventional zones cannot be reset nor finished. */
-       if (disk_zone_is_conv(disk, sector)) {
+       if (!bdev_zone_is_seq(bio->bi_bdev, sector)) {
                bio_io_error(bio);
                return true;
        }
        }
 
        /* Conventional zones do not need write plugging. */
-       if (disk_zone_is_conv(disk, sector)) {
+       if (!bdev_zone_is_seq(bio->bi_bdev, sector)) {
                /* Zone append to conventional zones is not allowed. */
                if (bio_op(bio) == REQ_OP_ZONE_APPEND) {
                        bio_io_error(bio);
 
        return bdev_offset_from_zone_start(bdev, sector) == 0;
 }
 
+/**
+ * bdev_zone_is_seq - check if a sector belongs to a sequential write zone
+ * @bdev:      block device to check
+ * @sector:    sector number
+ *
+ * Check if @sector on @bdev is contained in a sequential write required zone.
+ */
+static inline bool bdev_zone_is_seq(struct block_device *bdev, sector_t sector)
+{
+       bool is_seq = false;
+
+#if IS_ENABLED(CONFIG_BLK_DEV_ZONED)
+       if (bdev_is_zoned(bdev)) {
+               struct gendisk *disk = bdev->bd_disk;
+               unsigned long *bitmap;
+
+               rcu_read_lock();
+               bitmap = rcu_dereference(disk->conv_zones_bitmap);
+               is_seq = !bitmap ||
+                       !test_bit(disk_zone_no(disk, sector), bitmap);
+               rcu_read_unlock();
+       }
+#endif
+
+       return is_seq;
+}
+
 static inline int queue_dma_alignment(const struct request_queue *q)
 {
        return q->limits.dma_alignment;