void *
 kmem_zalloc_large(size_t size, xfs_km_flags_t flags)
 {
-       unsigned noio_flag = 0;
+       unsigned nofs_flag = 0;
        void    *ptr;
        gfp_t   lflags;
 
         * __vmalloc() will allocate data pages and auxillary structures (e.g.
         * pagetables) with GFP_KERNEL, yet we may be under GFP_NOFS context
         * here. Hence we need to tell memory reclaim that we are in such a
-        * context via PF_MEMALLOC_NOIO to prevent memory reclaim re-entering
+        * context via PF_MEMALLOC_NOFS to prevent memory reclaim re-entering
         * the filesystem here and potentially deadlocking.
         */
-       if ((current->flags & PF_MEMALLOC_NOFS) || (flags & KM_NOFS))
-               noio_flag = memalloc_noio_save();
+       if (flags & KM_NOFS)
+               nofs_flag = memalloc_nofs_save();
 
        lflags = kmem_flags_convert(flags);
        ptr = __vmalloc(size, lflags | __GFP_HIGHMEM | __GFP_ZERO, PAGE_KERNEL);
 
-       if ((current->flags & PF_MEMALLOC_NOFS) || (flags & KM_NOFS))
-               memalloc_noio_restore(noio_flag);
+       if (flags & KM_NOFS)
+               memalloc_nofs_restore(nofs_flag);
 
        return ptr;
 }
 
                bp->b_addr = NULL;
        } else {
                int retried = 0;
-               unsigned noio_flag;
+               unsigned nofs_flag;
 
                /*
                 * vm_map_ram() will allocate auxillary structures (e.g.
                 * pagetables) with GFP_KERNEL, yet we are likely to be under
                 * GFP_NOFS context here. Hence we need to tell memory reclaim
-                * that we are in such a context via PF_MEMALLOC_NOIO to prevent
+                * that we are in such a context via PF_MEMALLOC_NOFS to prevent
                 * memory reclaim re-entering the filesystem here and
                 * potentially deadlocking.
                 */
-               noio_flag = memalloc_noio_save();
+               nofs_flag = memalloc_nofs_save();
                do {
                        bp->b_addr = vm_map_ram(bp->b_pages, bp->b_page_count,
                                                -1, PAGE_KERNEL);
                                break;
                        vm_unmap_aliases();
                } while (retried++ <= 1);
-               memalloc_noio_restore(noio_flag);
+               memalloc_nofs_restore(nofs_flag);
 
                if (!bp->b_addr)
                        return -ENOMEM;