UEI_RECORD(uei, ei);
 }
 
+struct task_cpu_arg {
+       pid_t pid;
+};
+
+SEC("syscall")
+int select_cpu_from_user(struct task_cpu_arg *input)
+{
+       struct task_struct *p;
+       int cpu;
+
+       p = bpf_task_from_pid(input->pid);
+       if (!p)
+               return -EINVAL;
+
+       bpf_rcu_read_lock();
+       cpu = scx_bpf_select_cpu_and(p, bpf_get_smp_processor_id(), 0, p->cpus_ptr, 0);
+       bpf_rcu_read_unlock();
+
+       bpf_task_release(p);
+
+       return cpu;
+}
+
 SEC(".struct_ops.link")
 struct sched_ext_ops allowed_cpus_ops = {
        .select_cpu             = (void *)allowed_cpus_select_cpu,
 
        return SCX_TEST_PASS;
 }
 
+static int test_select_cpu_from_user(const struct allowed_cpus *skel)
+{
+       int fd, ret;
+       __u64 args[1];
+
+       LIBBPF_OPTS(bpf_test_run_opts, attr,
+               .ctx_in = args,
+               .ctx_size_in = sizeof(args),
+       );
+
+       args[0] = getpid();
+       fd = bpf_program__fd(skel->progs.select_cpu_from_user);
+       if (fd < 0)
+               return fd;
+
+       ret = bpf_prog_test_run_opts(fd, &attr);
+       if (ret < 0)
+               return ret;
+
+       fprintf(stderr, "%s: CPU %d\n", __func__, attr.retval);
+
+       return 0;
+}
+
 static enum scx_test_status run(void *ctx)
 {
        struct allowed_cpus *skel = ctx;
        link = bpf_map__attach_struct_ops(skel->maps.allowed_cpus_ops);
        SCX_FAIL_IF(!link, "Failed to attach scheduler");
 
+       /* Pick an idle CPU from user-space */
+       SCX_FAIL_IF(test_select_cpu_from_user(skel), "Failed to pick idle CPU");
+
        /* Just sleeping is fine, plenty of scheduling events happening */
        sleep(1);