*
  * Remember policies even when nobody has shared memory mapped.
  * The policies are kept in Red-Black tree linked from the inode.
- * They are protected by the sp->lock spinlock, which should be held
+ * They are protected by the sp->lock rwlock, which should be held
  * for any accesses to the tree.
  */
 
-/* lookup first element intersecting start-end */
-/* Caller holds sp->lock */
+/*
+ * lookup first element intersecting start-end.  Caller holds sp->lock for
+ * reading or for writing
+ */
 static struct sp_node *
 sp_lookup(struct shared_policy *sp, unsigned long start, unsigned long end)
 {
        return rb_entry(n, struct sp_node, nd);
 }
 
-/* Insert a new shared policy into the list. */
-/* Caller holds sp->lock */
+/*
+ * Insert a new shared policy into the list.  Caller holds sp->lock for
+ * writing.
+ */
 static void sp_insert(struct shared_policy *sp, struct sp_node *new)
 {
        struct rb_node **p = &sp->root.rb_node;
 
        if (!sp->root.rb_node)
                return NULL;
-       spin_lock(&sp->lock);
+       read_lock(&sp->lock);
        sn = sp_lookup(sp, idx, idx+1);
        if (sn) {
                mpol_get(sn->policy);
                pol = sn->policy;
        }
-       spin_unlock(&sp->lock);
+       read_unlock(&sp->lock);
        return pol;
 }
 
        int ret = 0;
 
 restart:
-       spin_lock(&sp->lock);
+       write_lock(&sp->lock);
        n = sp_lookup(sp, start, end);
        /* Take care of old policies in the same range. */
        while (n && n->start < end) {
        }
        if (new)
                sp_insert(sp, new);
-       spin_unlock(&sp->lock);
+       write_unlock(&sp->lock);
        ret = 0;
 
 err_out:
        return ret;
 
 alloc_new:
-       spin_unlock(&sp->lock);
+       write_unlock(&sp->lock);
        ret = -ENOMEM;
        n_new = kmem_cache_alloc(sn_cache, GFP_KERNEL);
        if (!n_new)
        int ret;
 
        sp->root = RB_ROOT;             /* empty tree == default mempolicy */
-       spin_lock_init(&sp->lock);
+       rwlock_init(&sp->lock);
 
        if (mpol) {
                struct vm_area_struct pvma;
 
        if (!p->root.rb_node)
                return;
-       spin_lock(&p->lock);
+       write_lock(&p->lock);
        next = rb_first(&p->root);
        while (next) {
                n = rb_entry(next, struct sp_node, nd);
                next = rb_next(&n->nd);
                sp_delete(p, n);
        }
-       spin_unlock(&p->lock);
+       write_unlock(&p->lock);
 }
 
 #ifdef CONFIG_NUMA_BALANCING