#include "scm.h"
 
-spinlock_t unix_table_locks[UNIX_HASH_SIZE];
-EXPORT_SYMBOL_GPL(unix_table_locks);
 static atomic_long_t unix_nr_socks;
 
 /* SMP locking strategy:
- *    hash table is protected with spinlock unix_table_locks
- *    each socket state is protected by separate spin lock.
+ *    hash table is protected with spinlock.
+ *    each socket state is protected by separate spinlock.
  */
 
 static unsigned int unix_unbound_hash(struct sock *sk)
        if (hash1 > hash2)
                swap(hash1, hash2);
 
-       spin_lock(&unix_table_locks[hash1]);
-       spin_lock_nested(&unix_table_locks[hash2], SINGLE_DEPTH_NESTING);
-
        spin_lock(&net->unx.table.locks[hash1]);
        spin_lock_nested(&net->unx.table.locks[hash2], SINGLE_DEPTH_NESTING);
 }
 {
        spin_unlock(&net->unx.table.locks[hash1]);
        spin_unlock(&net->unx.table.locks[hash2]);
-
-       spin_unlock(&unix_table_locks[hash1]);
-       spin_unlock(&unix_table_locks[hash2]);
 }
 
 #ifdef CONFIG_SECURITY_NETWORK
 
 static void unix_remove_socket(struct net *net, struct sock *sk)
 {
-       spin_lock(&unix_table_locks[sk->sk_hash]);
        spin_lock(&net->unx.table.locks[sk->sk_hash]);
        __unix_remove_socket(sk);
        spin_unlock(&net->unx.table.locks[sk->sk_hash]);
-       spin_unlock(&unix_table_locks[sk->sk_hash]);
 }
 
 static void unix_insert_unbound_socket(struct net *net, struct sock *sk)
 {
-       spin_lock(&unix_table_locks[sk->sk_hash]);
        spin_lock(&net->unx.table.locks[sk->sk_hash]);
        __unix_insert_socket(net, sk);
        spin_unlock(&net->unx.table.locks[sk->sk_hash]);
-       spin_unlock(&unix_table_locks[sk->sk_hash]);
 }
 
 static struct sock *__unix_find_socket_byname(struct net *net,
 {
        struct sock *s;
 
-       spin_lock(&unix_table_locks[hash]);
        spin_lock(&net->unx.table.locks[hash]);
        s = __unix_find_socket_byname(net, sunname, len, hash);
        if (s)
                sock_hold(s);
        spin_unlock(&net->unx.table.locks[hash]);
-       spin_unlock(&unix_table_locks[hash]);
        return s;
 }
 
        unsigned int hash = unix_bsd_hash(i);
        struct sock *s;
 
-       spin_lock(&unix_table_locks[hash]);
        spin_lock(&net->unx.table.locks[hash]);
        sk_for_each(s, &net->unx.table.buckets[hash]) {
                struct dentry *dentry = unix_sk(s)->path.dentry;
                if (dentry && d_backing_inode(dentry) == i) {
                        sock_hold(s);
                        spin_unlock(&net->unx.table.locks[hash]);
-                       spin_unlock(&unix_table_locks[hash]);
                        return s;
                }
        }
        spin_unlock(&net->unx.table.locks[hash]);
-       spin_unlock(&unix_table_locks[hash]);
        return NULL;
 }
 
         *
         * The contents of *(otheru->addr) and otheru->path
         * are seen fully set up here, since we have found
-        * otheru in hash under unix_table_locks.  Insertion
-        * into the hash chain we'd found it in had been done
-        * in an earlier critical area protected by unix_table_locks,
+        * otheru in hash under its lock.  Insertion into the
+        * hash chain we'd found it in had been done in an
+        * earlier critical area protected by the chain's lock,
         * the same one where we'd set *(otheru->addr) contents,
         * as well as otheru->path and otheru->addr itself.
         *
        struct sock *sk;
 
        while (bucket < UNIX_HASH_SIZE) {
-               spin_lock(&unix_table_locks[bucket]);
                spin_lock(&net->unx.table.locks[bucket]);
 
                sk = unix_from_bucket(seq, pos);
                        return sk;
 
                spin_unlock(&net->unx.table.locks[bucket]);
-               spin_unlock(&unix_table_locks[bucket]);
 
                *pos = set_bucket_offset(++bucket, 1);
        }
 
 
        spin_unlock(&seq_file_net(seq)->unx.table.locks[bucket]);
-       spin_unlock(&unix_table_locks[bucket]);
 
        *pos = set_bucket_offset(++bucket, 1);
 
 {
        struct sock *sk = v;
 
-       if (sk) {
+       if (sk)
                spin_unlock(&seq_file_net(seq)->unx.table.locks[sk->sk_hash]);
-               spin_unlock(&unix_table_locks[sk->sk_hash]);
-       }
 }
 
 static int unix_seq_show(struct seq_file *seq, void *v)
                        (s->sk_state == TCP_ESTABLISHED ? SS_CONNECTING : SS_DISCONNECTING),
                        sock_i_ino(s));
 
-               if (u->addr) {  // under unix_table_locks here
+               if (u->addr) {  // under a hash table lock here
                        int i, len;
                        seq_putc(seq, ' ');
 
        }
 
        spin_unlock(&seq_file_net(seq)->unx.table.locks[start_sk->sk_hash]);
-       spin_unlock(&unix_table_locks[start_sk->sk_hash]);
 
        return expected;
 }
 
 static int __init af_unix_init(void)
 {
-       int i, rc = -1;
+       int rc = -1;
 
        BUILD_BUG_ON(sizeof(struct unix_skb_parms) > sizeof_field(struct sk_buff, cb));
 
-       for (i = 0; i < UNIX_HASH_SIZE; i++)
-               spin_lock_init(&unix_table_locks[i]);
-
        rc = proto_register(&unix_dgram_proto, 1);
        if (rc != 0) {
                pr_crit("%s: Cannot create unix_sock SLAB cache!\n", __func__);
 
 
 static int sk_diag_dump_name(struct sock *sk, struct sk_buff *nlskb)
 {
-       /* might or might not have unix_table_locks */
+       /* might or might not have a hash table lock */
        struct unix_address *addr = smp_load_acquire(&unix_sk(sk)->addr);
 
        if (!addr)
                struct sock *sk;
 
                num = 0;
-               spin_lock(&unix_table_locks[slot]);
                spin_lock(&net->unx.table.locks[slot]);
                sk_for_each(sk, &net->unx.table.buckets[slot]) {
                        if (num < s_num)
                                         cb->nlh->nlmsg_seq,
                                         NLM_F_MULTI) < 0) {
                                spin_unlock(&net->unx.table.locks[slot]);
-                               spin_unlock(&unix_table_locks[slot]);
                                goto done;
                        }
 next:
                        num++;
                }
                spin_unlock(&net->unx.table.locks[slot]);
-               spin_unlock(&unix_table_locks[slot]);
        }
 done:
        cb->args[0] = slot;
        int i;
 
        for (i = 0; i < UNIX_HASH_SIZE; i++) {
-               spin_lock(&unix_table_locks[i]);
                spin_lock(&net->unx.table.locks[i]);
                sk_for_each(sk, &net->unx.table.buckets[i]) {
                        if (ino == sock_i_ino(sk)) {
                                sock_hold(sk);
                                spin_unlock(&net->unx.table.locks[i]);
-                               spin_unlock(&unix_table_locks[i]);
                                return sk;
                        }
                }
                spin_unlock(&net->unx.table.locks[i]);
-               spin_unlock(&unix_table_locks[i]);
        }
        return NULL;
 }