kfree_rcu(subflow, rcu);
        } else {
                /* otherwise tcp will dispose of the ssk and subflow ctx */
-               if (ssk->sk_state == TCP_LISTEN) {
-                       tcp_set_state(ssk, TCP_CLOSE);
-                       mptcp_subflow_queue_clean(sk, ssk);
-                       inet_csk_listen_stop(ssk);
-                       mptcp_event_pm_listener(ssk, MPTCP_EVENT_LISTENER_CLOSED);
-               }
-
                __tcp_close(ssk, 0);
 
                /* close acquired an extra ref */
        return EPOLLIN | EPOLLRDNORM;
 }
 
-static void mptcp_listen_inuse_dec(struct sock *sk)
+static void mptcp_check_listen_stop(struct sock *sk)
 {
-       if (inet_sk_state_load(sk) == TCP_LISTEN)
-               sock_prot_inuse_add(sock_net(sk), sk->sk_prot, -1);
+       struct sock *ssk;
+
+       if (inet_sk_state_load(sk) != TCP_LISTEN)
+               return;
+
+       sock_prot_inuse_add(sock_net(sk), sk->sk_prot, -1);
+       ssk = mptcp_sk(sk)->first;
+       if (WARN_ON_ONCE(!ssk || inet_sk_state_load(ssk) != TCP_LISTEN))
+               return;
+
+       lock_sock_nested(ssk, SINGLE_DEPTH_NESTING);
+       mptcp_subflow_queue_clean(sk, ssk);
+       inet_csk_listen_stop(ssk);
+       mptcp_event_pm_listener(ssk, MPTCP_EVENT_LISTENER_CLOSED);
+       tcp_set_state(ssk, TCP_CLOSE);
+       release_sock(ssk);
 }
 
 bool __mptcp_close(struct sock *sk, long timeout)
        WRITE_ONCE(sk->sk_shutdown, SHUTDOWN_MASK);
 
        if ((1 << sk->sk_state) & (TCPF_LISTEN | TCPF_CLOSE)) {
-               mptcp_listen_inuse_dec(sk);
+               mptcp_check_listen_stop(sk);
                inet_sk_state_store(sk, TCP_CLOSE);
                goto cleanup;
        }
        if (msk->fastopening)
                return -EBUSY;
 
-       mptcp_listen_inuse_dec(sk);
+       mptcp_check_listen_stop(sk);
        inet_sk_state_store(sk, TCP_CLOSE);
 
        mptcp_stop_timer(sk);