meta->table[index].value = (flags << ZRAM_FLAG_SHIFT) | size;
 }
 
-static inline int is_partial_io(struct bio_vec *bvec)
+static inline bool is_partial_io(struct bio_vec *bvec)
 {
        return bvec->bv_len != PAGE_SIZE;
 }
 /*
  * Check if request is within bounds and aligned on zram logical blocks.
  */
-static inline int valid_io_request(struct zram *zram,
+static inline bool valid_io_request(struct zram *zram,
                sector_t start, unsigned int size)
 {
        u64 end, bound;
 
        /* unaligned request */
        if (unlikely(start & (ZRAM_SECTOR_PER_LOGICAL_BLOCK - 1)))
-               return 0;
+               return false;
        if (unlikely(size & (ZRAM_LOGICAL_BLOCK_SIZE - 1)))
-               return 0;
+               return false;
 
        end = start + (size >> SECTOR_SHIFT);
        bound = zram->disksize >> SECTOR_SHIFT;
        /* out of range range */
        if (unlikely(start >= bound || end > bound || start > end))
-               return 0;
+               return false;
 
        /* I/O request is valid */
-       return 1;
+       return true;
 }
 
 static void update_position(u32 *index, int *offset, struct bio_vec *bvec)
        } while (old_max != cur_max);
 }
 
-static int page_zero_filled(void *ptr)
+static bool page_zero_filled(void *ptr)
 {
        unsigned int pos;
        unsigned long *page;
 
        for (pos = 0; pos != PAGE_SIZE / sizeof(*page); pos++) {
                if (page[pos])
-                       return 0;
+                       return false;
        }
 
-       return 1;
+       return true;
 }
 
 static void handle_zero_page(struct bio_vec *bvec)