static struct hlist_head node_htable[NODE_HTABLE_SIZE];
 LIST_HEAD(tipc_node_list);
 static u32 tipc_num_nodes;
+static u32 tipc_num_links;
 static DEFINE_SPINLOCK(node_list_lock);
 
-static atomic_t tipc_num_links = ATOMIC_INIT(0);
-
 /*
  * A trivial power-of-two bitmask technique is used for speed, since this
  * operation is done for every incoming TIPC packet. The number of hash table
 void tipc_node_attach_link(struct tipc_node *n_ptr, struct tipc_link *l_ptr)
 {
        n_ptr->links[l_ptr->b_ptr->identity] = l_ptr;
-       atomic_inc(&tipc_num_links);
+       spin_lock_bh(&node_list_lock);
+       tipc_num_links++;
+       spin_unlock_bh(&node_list_lock);
        n_ptr->link_cnt++;
 }
 
                if (l_ptr != n_ptr->links[i])
                        continue;
                n_ptr->links[i] = NULL;
-               atomic_dec(&tipc_num_links);
+               spin_lock_bh(&node_list_lock);
+               tipc_num_links--;
+               spin_unlock_bh(&node_list_lock);
                n_ptr->link_cnt--;
        }
 }
 
        spin_lock_bh(&node_list_lock);
        /* Get space for all unicast links + broadcast link */
-       payload_size = TLV_SPACE(sizeof(link_info)) *
-               (atomic_read(&tipc_num_links) + 1);
+       payload_size = TLV_SPACE((sizeof(link_info)) * (tipc_num_links + 1));
        if (payload_size > 32768u) {
                spin_unlock_bh(&node_list_lock);
                return tipc_cfg_reply_error_string(TIPC_CFG_NOT_SUPPORTED
                                                   " (too many links)");
        }
+       spin_unlock_bh(&node_list_lock);
+
        buf = tipc_cfg_reply_alloc(payload_size);
-       if (!buf) {
-               spin_unlock_bh(&node_list_lock);
+       if (!buf)
                return NULL;
-       }
 
        /* Add TLV for broadcast link */
        link_info.dest = htonl(tipc_cluster_mask(tipc_own_addr));
                tipc_node_unlock(n_ptr);
        }
        rcu_read_unlock();
-       spin_unlock_bh(&node_list_lock);
        return buf;
 }