void            (*syn_ack_timeout)(const struct request_sock *req);
 };
 
-int inet_rtx_syn_ack(const struct sock *parent, struct request_sock *req);
-
 struct saved_syn {
        u32 mac_hdrlen;
        u32 network_hdrlen;
 
                  req->num_timeout >= rskq_defer_accept - 1;
 }
 
-int inet_rtx_syn_ack(const struct sock *parent, struct request_sock *req)
-{
-       int err = tcp_rtx_synack(parent, req);
-
-       if (!err)
-               req->num_retrans++;
-       return err;
-}
-
 static struct request_sock *
 reqsk_alloc_noprof(const struct request_sock_ops *ops, struct sock *sk_listener,
                   bool attach_listener)
        req->rsk_ops->syn_ack_timeout(req);
        if (!expire &&
            (!resend ||
-            !inet_rtx_syn_ack(sk_listener, req) ||
+            !tcp_rtx_synack(sk_listener, req) ||
             inet_rsk(req)->acked)) {
                if (req->num_timeout++ == 0)
                        atomic_dec(&queue->young);
 
                                          LINUX_MIB_TCPACKSKIPPEDSYNRECV,
                                          &tcp_rsk(req)->last_oow_ack_time) &&
 
-                   !inet_rtx_syn_ack(sk, req)) {
+                   !tcp_rtx_synack(sk, req)) {
                        unsigned long expires = jiffies;
 
                        expires += reqsk_timeout(req, TCP_RTO_MAX);
 
                        tcp_sk_rw(sk)->total_retrans++;
                }
                trace_tcp_retransmit_synack(sk, req);
+               req->num_retrans++;
        }
        return res;
 }
 
         * regular retransmit because if the child socket has been accepted
         * it's not good to give up too easily.
         */
-       inet_rtx_syn_ack(sk, req);
+       tcp_rtx_synack(sk, req);
        req->num_timeout++;
        tcp_update_rto_stats(sk);
        if (!tp->retrans_stamp)