return ret ?: register_btf_kfunc_id_set(BPF_PROG_TYPE_XDP, &bpf_kfunc_set_xdp);
 }
 late_initcall(bpf_kfunc_init);
+
+/* Disables missing prototype warnings */
+__diag_push();
+__diag_ignore_all("-Wmissing-prototypes",
+                 "Global functions as their definitions will be in vmlinux BTF");
+
+/* bpf_sock_destroy: Destroy the given socket with ECONNABORTED error code.
+ *
+ * The function expects a non-NULL pointer to a socket, and invokes the
+ * protocol specific socket destroy handlers.
+ *
+ * The helper can only be called from BPF contexts that have acquired the socket
+ * locks.
+ *
+ * Parameters:
+ * @sock: Pointer to socket to be destroyed
+ *
+ * Return:
+ * On error, may return EPROTONOSUPPORT, EINVAL.
+ * EPROTONOSUPPORT if protocol specific destroy handler is not supported.
+ * 0 otherwise
+ */
+__bpf_kfunc int bpf_sock_destroy(struct sock_common *sock)
+{
+       struct sock *sk = (struct sock *)sock;
+
+       /* The locking semantics that allow for synchronous execution of the
+        * destroy handlers are only supported for TCP and UDP.
+        * Supporting protocols will need to acquire sock lock in the BPF context
+        * prior to invoking this kfunc.
+        */
+       if (!sk->sk_prot->diag_destroy || (sk->sk_protocol != IPPROTO_TCP &&
+                                          sk->sk_protocol != IPPROTO_UDP))
+               return -EOPNOTSUPP;
+
+       return sk->sk_prot->diag_destroy(sk, ECONNABORTED);
+}
+
+__diag_pop()
+
+BTF_SET8_START(bpf_sk_iter_kfunc_ids)
+BTF_ID_FLAGS(func, bpf_sock_destroy, KF_TRUSTED_ARGS)
+BTF_SET8_END(bpf_sk_iter_kfunc_ids)
+
+static int tracing_iter_filter(const struct bpf_prog *prog, u32 kfunc_id)
+{
+       if (btf_id_set8_contains(&bpf_sk_iter_kfunc_ids, kfunc_id) &&
+           prog->expected_attach_type != BPF_TRACE_ITER)
+               return -EACCES;
+       return 0;
+}
+
+static const struct btf_kfunc_id_set bpf_sk_iter_kfunc_set = {
+       .owner = THIS_MODULE,
+       .set   = &bpf_sk_iter_kfunc_ids,
+       .filter = tracing_iter_filter,
+};
+
+static int init_subsystem(void)
+{
+       return register_btf_kfunc_id_set(BPF_PROG_TYPE_TRACING, &bpf_sk_iter_kfunc_set);
+}
+late_initcall(init_subsystem);
 
                return 0;
        }
 
-       /* Don't race with userspace socket closes such as tcp_close. */
-       lock_sock(sk);
+       /* BPF context ensures sock locking. */
+       if (!has_current_bpf_ctx())
+               /* Don't race with userspace socket closes such as tcp_close. */
+               lock_sock(sk);
 
        if (sk->sk_state == TCP_LISTEN) {
                tcp_set_state(sk, TCP_CLOSE);
        bh_unlock_sock(sk);
        local_bh_enable();
        tcp_write_queue_purge(sk);
-       release_sock(sk);
+       if (!has_current_bpf_ctx())
+               release_sock(sk);
        return 0;
 }
 EXPORT_SYMBOL_GPL(tcp_abort);
 
 
 int udp_abort(struct sock *sk, int err)
 {
-       lock_sock(sk);
+       if (!has_current_bpf_ctx())
+               lock_sock(sk);
 
        /* udp{v6}_destroy_sock() sets it under the sk lock, avoid racing
         * with close()
        __udp_disconnect(sk, 0);
 
 out:
-       release_sock(sk);
+       if (!has_current_bpf_ctx())
+               release_sock(sk);
 
        return 0;
 }
        .ctx_arg_info_size      = 1,
        .ctx_arg_info           = {
                { offsetof(struct bpf_iter__udp, udp_sk),
-                 PTR_TO_BTF_ID_OR_NULL },
+                 PTR_TO_BTF_ID_OR_NULL | PTR_TRUSTED },
        },
        .seq_info               = &udp_seq_info,
 };