static ssize_t show_shared_cpu_map_func(struct _cpuid4_info *this_leaf,
                                        int type, char *buf)
 {
-       ptrdiff_t len = PTR_ALIGN(buf + PAGE_SIZE - 1, PAGE_SIZE) - buf;
-       int n = 0;
-
-       if (len > 1) {
-               const struct cpumask *mask;
-
-               mask = to_cpumask(this_leaf->shared_cpu_map);
-               n = type ?
-                       cpulist_scnprintf(buf, len-2, mask) :
-                       cpumask_scnprintf(buf, len-2, mask);
-               buf[n++] = '\n';
-               buf[n] = '\0';
-       }
-       return n;
+       const struct cpumask *mask = to_cpumask(this_leaf->shared_cpu_map);
+       int ret;
+
+       if (type)
+               ret = scnprintf(buf, PAGE_SIZE - 1, "%*pbl",
+                               cpumask_pr_args(mask));
+       else
+               ret = scnprintf(buf, PAGE_SIZE - 1, "%*pb",
+                               cpumask_pr_args(mask));
+       buf[ret++] = '\n';
+       buf[ret] = '\0';
+       return ret;
 }
 
 static inline ssize_t show_shared_cpu_map(struct _cpuid4_info *leaf, char *buf,
 
 void debug_cpumask_set_cpu(int cpu, int node, bool enable)
 {
        struct cpumask *mask;
-       char buf[64];
 
        if (node == NUMA_NO_NODE) {
                /* early_cpu_to_node() already emits a warning and trace */
        else
                cpumask_clear_cpu(cpu, mask);
 
-       cpulist_scnprintf(buf, sizeof(buf), mask);
-       printk(KERN_DEBUG "%s cpu %d node %d: mask now %s\n",
+       printk(KERN_DEBUG "%s cpu %d node %d: mask now %*pbl\n",
                enable ? "numa_add_cpu" : "numa_remove_cpu",
-               cpu, node, buf);
+               cpu, node, cpumask_pr_args(mask));
        return;
 }
 
 
        }
 }
 
-/* Print non-responding cpus */
-static void uv_nmi_nr_cpus_pr(char *fmt)
-{
-       static char cpu_list[1024];
-       int len = sizeof(cpu_list);
-       int c = cpumask_weight(uv_nmi_cpu_mask);
-       int n = cpulist_scnprintf(cpu_list, len, uv_nmi_cpu_mask);
-
-       if (n >= len-1)
-               strcpy(&cpu_list[len - 6], "...\n");
-
-       printk(fmt, c, cpu_list);
-}
-
 /* Ping non-responding cpus attemping to force them into the NMI handler */
 static void uv_nmi_nr_cpus_ping(void)
 {
                        break;
 
                /* if not all made it in, send IPI NMI to them */
-               uv_nmi_nr_cpus_pr(KERN_ALERT
-                       "UV: Sending NMI IPI to %d non-responding CPUs: %s\n");
+               pr_alert("UV: Sending NMI IPI to %d non-responding CPUs: %*pbl\n",
+                        cpumask_weight(uv_nmi_cpu_mask),
+                        cpumask_pr_args(uv_nmi_cpu_mask));
+
                uv_nmi_nr_cpus_ping();
 
                /* if all cpus are in, then done */
                if (!uv_nmi_wait_cpus(0))
                        break;
 
-               uv_nmi_nr_cpus_pr(KERN_ALERT
-                       "UV: %d CPUs not in NMI loop: %s\n");
+               pr_alert("UV: %d CPUs not in NMI loop: %*pbl\n",
+                        cpumask_weight(uv_nmi_cpu_mask),
+                        cpumask_pr_args(uv_nmi_cpu_mask));
        } while (0);
 
        pr_alert("UV: %d of %d CPUs in NMI\n",