INIT_LIST_HEAD(&vm->unbound_list);
 
        list_add_tail(&vm->global_link, &dev_priv->vm_list);
-       pagevec_init(&vm->free_pages, false);
+       pagevec_init(&vm->free_pages);
 }
 
 static void i915_address_space_fini(struct i915_address_space *vm)
 
        _enter("{%x:%u},%lx-%lx",
               vnode->fid.vid, vnode->fid.vnode, first, last);
 
-       pagevec_init(&pv, 0);
+       pagevec_init(&pv);
 
        do {
                _debug("kill %lx-%lx", first, last);
 
        ASSERT(wb != NULL);
 
-       pagevec_init(&pv, 0);
+       pagevec_init(&pv);
 
        do {
                _debug("done %lx-%lx", first, last);
 
        int scanned = 0;
        int tag;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        if (wbc->range_cyclic) {
                index = mapping->writeback_index; /* Start from prev offset */
                end = -1;
        if (!igrab(inode))
                return 0;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        if (wbc->range_cyclic) {
                index = mapping->writeback_index; /* Start from prev offset */
                end = -1;
 
        struct buffer_head *head;
 
        end = (block + len - 1) >> (PAGE_SHIFT - bd_inode->i_blkbits);
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        while (pagevec_lookup_range(&pvec, bd_mapping, &index, end)) {
                count = pagevec_count(&pvec);
                for (i = 0; i < count; i++) {
        if (length <= 0)
                return -ENOENT;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        do {
                unsigned nr_pages, i;
 
        /* calculate the shift required to use bmap */
        shift = PAGE_SHIFT - inode->i_sb->s_blocksize_bits;
 
-       pagevec_init(&pagevec, 0);
+       pagevec_init(&pagevec);
 
        op->op.flags &= FSCACHE_OP_KEEP_FLAGS;
        op->op.flags |= FSCACHE_OP_ASYNC;
 
        ret = cachefiles_has_space(cache, 0, *nr_pages);
        if (ret == 0) {
-               pagevec_init(&pagevec, 0);
+               pagevec_init(&pagevec);
 
                list_for_each_entry(page, pages, lru) {
                        if (pagevec_add(&pagevec, page) == 0)
 
        struct pagevec pvec;
        int i;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        for (i = 0; i < num; i++) {
                if (pagevec_add(&pvec, pages[i]) == 0)
                        pagevec_release(&pvec);
        if (fsc->mount_options->wsize < wsize)
                wsize = fsc->mount_options->wsize;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        start_index = wbc->range_cyclic ? mapping->writeback_index : 0;
        index = start_index;
 
 
        tag_pages_for_writeback(mapping, start_index, end_index);
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        while (!done) {
                pvec.nr = find_get_entries_tag(mapping, start_index,
                                PAGECACHE_TAG_TOWRITE, PAGEVEC_SIZE,
 
                ext4_es_remove_extent(inode, start, last - start + 1);
        }
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        while (index <= end) {
                nr_pages = pagevec_lookup_range(&pvec, mapping, &index, end);
                if (nr_pages == 0)
        lblk = start << bpp_bits;
        pblock = mpd->map.m_pblk;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        while (start <= end) {
                nr_pages = pagevec_lookup_range(&pvec, inode->i_mapping,
                                                &start, end);
        else
                tag = PAGECACHE_TAG_DIRTY;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        mpd->map.m_len = 0;
        mpd->next_page = index;
        while (index <= end) {
 
        };
        struct blk_plug plug;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        blk_start_plug(&plug);
 
 
        int range_whole = 0;
        int tag;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        if (get_dirty_pages(mapping->host) <=
                                SM_I(F2FS_M_SB(mapping))->min_hot_blocks)
 
        struct page *last_page = NULL;
        int nr_pages;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        index = 0;
 
        while ((nr_pages = pagevec_lookup_tag(&pvec, NODE_MAPPING(sbi), &index,
                        return PTR_ERR_OR_ZERO(last_page);
        }
 retry:
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        index = 0;
 
        while ((nr_pages = pagevec_lookup_tag(&pvec, NODE_MAPPING(sbi), &index,
        int ret = 0;
        int nr_pages;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
 next_step:
        index = 0;
        int ret2, ret = 0;
        int nr_pages;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        while ((nr_pages = pagevec_lookup_tag(&pvec, NODE_MAPPING(sbi), &index,
                                PAGECACHE_TAG_WRITEBACK))) {
 
                return;
        }
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        next = 0;
        do {
                if (!pagevec_lookup(&pvec, mapping, &next))
 
        int range_whole = 0;
        int tag;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        if (wbc->range_cyclic) {
                writeback_index = mapping->writeback_index; /* prev offset */
                index = writeback_index;
 
 
        memset(&pseudo_vma, 0, sizeof(struct vm_area_struct));
        pseudo_vma.vm_flags = (VM_HUGETLB | VM_MAYSHARE | VM_SHARED);
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        next = start;
        while (next < end) {
                /*
 
             level++)
                INIT_LIST_HEAD(&lists[level]);
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        while (pagevec_lookup_tag(&pvec, btcache, &index,
                                        PAGECACHE_TAG_DIRTY)) {
 
        pgoff_t index = 0;
        int err = 0;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 repeat:
        if (!pagevec_lookup_tag(&pvec, smap, &index, PAGECACHE_TAG_DIRTY))
                return 0;
        pgoff_t index = 0;
        int err;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 repeat:
        n = pagevec_lookup(&pvec, smap, &index);
        if (!n)
        unsigned int i;
        pgoff_t index = 0;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        while (pagevec_lookup_tag(&pvec, mapping, &index,
                                        PAGECACHE_TAG_DIRTY)) {
        index = start_blk >> (PAGE_SHIFT - inode->i_blkbits);
        nblocks_in_page = 1U << (PAGE_SHIFT - inode->i_blkbits);
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
 repeat:
        pvec.nr = find_get_pages_contig(inode->i_mapping, index, PAGEVEC_SIZE,
 
                index = start >> PAGE_SHIFT;
                last = end >> PAGE_SHIFT;
        }
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
  repeat:
        if (unlikely(index > last) ||
            !pagevec_lookup_range_tag(&pvec, mapping, &index, last,
        unsigned int i;
        pgoff_t index = 0;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
 
        while (pagevec_lookup_tag(&pvec, mapping, &index,
                                        PAGECACHE_TAG_DIRTY)) {
 
 
 struct pagevec {
        unsigned long nr;
-       bool cold;
        bool drained;
        struct page *pages[PAGEVEC_SIZE];
 };
        return pagevec_lookup_range_tag(pvec, mapping, index, (pgoff_t)-1, tag);
 }
 
-static inline void pagevec_init(struct pagevec *pvec, int cold)
+static inline void pagevec_init(struct pagevec *pvec)
 {
        pvec->nr = 0;
-       pvec->cold = cold;
        pvec->drained = false;
 }
 
 
        if (end_byte < start_byte)
                return;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        while (index <= end) {
                unsigned i;
 
 
        struct pagevec pvec_putback;
        int pgrescued = 0;
 
-       pagevec_init(&pvec_putback, 0);
+       pagevec_init(&pvec_putback);
 
        /* Phase 1: page isolation */
        spin_lock_irq(zone_lru_lock(zone));
                struct pagevec pvec;
                struct zone *zone;
 
-               pagevec_init(&pvec, 0);
+               pagevec_init(&pvec);
                /*
                 * Although FOLL_DUMP is intended for get_dump_page(),
                 * it just so happens that its special treatment of the
 
        int range_whole = 0;
        int tag;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        if (wbc->range_cyclic) {
                writeback_index = mapping->writeback_index; /* prev offset */
                index = writeback_index;
 
        pgoff_t indices[PAGEVEC_SIZE];
        pgoff_t index = 0;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        /*
         * Minor point, but we might as well stop if someone else SHM_LOCKs it.
         */
        if (lend == -1)
                end = -1;       /* unsigned, so actually very big */
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        index = start;
        while (index < end) {
                pvec.nr = find_get_entries(mapping, index,
        bool done = false;
        int i;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        pvec.nr = 1;            /* start small: we may be there already */
        while (!done) {
                pvec.nr = find_get_entries(mapping, index,
 
        }
        if (pgdat)
                spin_unlock_irqrestore(&pgdat->lru_lock, flags);
-       release_pages(pvec->pages, pvec->nr, pvec->cold);
+       release_pages(pvec->pages, pvec->nr, 0);
        pagevec_reinit(pvec);
 }
 
                lru_add_drain();
                pvec->drained = true;
        }
-       release_pages(pvec->pages, pagevec_count(pvec), pvec->cold);
+       release_pages(pvec->pages, pagevec_count(pvec), 0);
        pagevec_reinit(pvec);
 }
 EXPORT_SYMBOL(__pagevec_release);
 
        else
                end = (lend + 1) >> PAGE_SHIFT;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        index = start;
        while (index < end && pagevec_lookup_entries(&pvec, mapping, index,
                        min(end - index, (pgoff_t)PAGEVEC_SIZE),
                 */
                struct pagevec locked_pvec;
 
-               pagevec_init(&locked_pvec, 0);
+               pagevec_init(&locked_pvec);
                for (i = 0; i < pagevec_count(&pvec); i++) {
                        struct page *page = pvec.pages[i];
 
        unsigned long count = 0;
        int i;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        while (index <= end && pagevec_lookup_entries(&pvec, mapping, index,
                        min(end - index, (pgoff_t)PAGEVEC_SIZE - 1) + 1,
                        indices)) {
        if (mapping->nrpages == 0 && mapping->nrexceptional == 0)
                goto out;
 
-       pagevec_init(&pvec, 0);
+       pagevec_init(&pvec);
        index = start;
        while (index <= end && pagevec_lookup_entries(&pvec, mapping, index,
                        min(end - index, (pgoff_t)PAGEVEC_SIZE - 1) + 1,