/**
  * alloc_workqueue_attrs - allocate a workqueue_attrs
- * @gfp_mask: allocation mask to use
  *
  * Allocate a new workqueue_attrs, initialize with default settings and
  * return it.
  *
  * Return: The allocated new workqueue_attr on success. %NULL on failure.
  */
-static struct workqueue_attrs *alloc_workqueue_attrs(gfp_t gfp_mask)
+static struct workqueue_attrs *alloc_workqueue_attrs(void)
 {
        struct workqueue_attrs *attrs;
 
-       attrs = kzalloc(sizeof(*attrs), gfp_mask);
+       attrs = kzalloc(sizeof(*attrs), GFP_KERNEL);
        if (!attrs)
                goto fail;
-       if (!alloc_cpumask_var(&attrs->cpumask, gfp_mask))
+       if (!alloc_cpumask_var(&attrs->cpumask, GFP_KERNEL))
                goto fail;
 
        cpumask_copy(attrs->cpumask, cpu_possible_mask);
        pool->refcnt = 1;
 
        /* shouldn't fail above this point */
-       pool->attrs = alloc_workqueue_attrs(GFP_KERNEL);
+       pool->attrs = alloc_workqueue_attrs();
        if (!pool->attrs)
                return -ENOMEM;
        return 0;
 
        ctx = kzalloc(struct_size(ctx, pwq_tbl, nr_node_ids), GFP_KERNEL);
 
-       new_attrs = alloc_workqueue_attrs(GFP_KERNEL);
-       tmp_attrs = alloc_workqueue_attrs(GFP_KERNEL);
+       new_attrs = alloc_workqueue_attrs();
+       tmp_attrs = alloc_workqueue_attrs();
        if (!ctx || !new_attrs || !tmp_attrs)
                goto out_free;
 
                return NULL;
 
        if (flags & WQ_UNBOUND) {
-               wq->unbound_attrs = alloc_workqueue_attrs(GFP_KERNEL);
+               wq->unbound_attrs = alloc_workqueue_attrs();
                if (!wq->unbound_attrs)
                        goto err_free_wq;
        }
 
        lockdep_assert_held(&wq_pool_mutex);
 
-       attrs = alloc_workqueue_attrs(GFP_KERNEL);
+       attrs = alloc_workqueue_attrs();
        if (!attrs)
                return NULL;
 
                return;
        }
 
-       wq_update_unbound_numa_attrs_buf = alloc_workqueue_attrs(GFP_KERNEL);
+       wq_update_unbound_numa_attrs_buf = alloc_workqueue_attrs();
        BUG_ON(!wq_update_unbound_numa_attrs_buf);
 
        /*
        for (i = 0; i < NR_STD_WORKER_POOLS; i++) {
                struct workqueue_attrs *attrs;
 
-               BUG_ON(!(attrs = alloc_workqueue_attrs(GFP_KERNEL)));
+               BUG_ON(!(attrs = alloc_workqueue_attrs()));
                attrs->nice = std_nice[i];
                unbound_std_wq_attrs[i] = attrs;
 
                 * guaranteed by max_active which is enforced by pwqs.
                 * Turn off NUMA so that dfl_pwq is used for all nodes.
                 */
-               BUG_ON(!(attrs = alloc_workqueue_attrs(GFP_KERNEL)));
+               BUG_ON(!(attrs = alloc_workqueue_attrs()));
                attrs->nice = std_nice[i];
                attrs->no_numa = true;
                ordered_wq_attrs[i] = attrs;