]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
maple_tree: remove mas_destroy() from mas_nomem()
authorSidhartha Kumar <sidhartha.kumar@oracle.com>
Mon, 30 Oct 2023 18:50:51 +0000 (14:50 -0400)
committerLiam R. Howlett <Liam.Howlett@oracle.com>
Sat, 20 Apr 2024 01:40:08 +0000 (21:40 -0400)
Separate call to mas_destroy() from mas_nomem() so we can check for no
memory errors without destroying the current maple state in mas_store_gfp().

Signed-off-by: Sidhartha Kumar <sidhartha.kumar@oracle.com>
lib/maple_tree.c
tools/testing/radix-tree/maple.c

index 63e426e82bd3933b979fd938d3adf17088c5d259..94c652d545cd08807873a0ede2188c29b8851e7c 100644 (file)
@@ -5558,18 +5558,22 @@ EXPORT_SYMBOL_GPL(mas_store);
 int mas_store_gfp(struct ma_state *mas, void *entry, gfp_t gfp)
 {
        MA_WR_STATE(wr_mas, mas, entry);
+       int ret;
 
-       mas_wr_store_setup(&wr_mas);
-       trace_ma_write(__func__, mas, 0, entry);
 retry:
-       mas_wr_store_entry(&wr_mas);
+       mas_wr_preallocate(&wr_mas, entry, gfp);
+       WARN_ON_ONCE(mas->store_type == wr_invalid);
+
        if (unlikely(mas_nomem(mas, gfp)))
                goto retry;
+       if (mas_is_err(mas))
+               goto out;
 
-       if (unlikely(mas_is_err(mas)))
-               return xa_err(mas->node);
-
-       return 0;
+       mas_wr_store_entry(&wr_mas);
+out:
+       ret = xa_err(mas->node);
+       mas_destroy(mas);
+       return ret;
 }
 EXPORT_SYMBOL_GPL(mas_store_gfp);
 
@@ -6317,6 +6321,7 @@ write_retry:
        if (mas_nomem(mas, GFP_KERNEL))
                goto write_retry;
 
+       mas_destroy(mas);
        return entry;
 }
 EXPORT_SYMBOL_GPL(mas_erase);
@@ -6331,10 +6336,8 @@ EXPORT_SYMBOL_GPL(mas_erase);
 bool mas_nomem(struct ma_state *mas, gfp_t gfp)
        __must_hold(mas->tree->ma_lock)
 {
-       if (likely(mas->node != MA_ERROR(-ENOMEM))) {
-               mas_destroy(mas);
+       if (likely(mas->node != MA_ERROR(-ENOMEM)))
                return false;
-       }
 
        if (gfpflags_allow_blocking(gfp) && !mt_external_lock(mas->tree)) {
                mtree_unlock(mas->tree);
@@ -6412,6 +6415,7 @@ int mtree_store_range(struct maple_tree *mt, unsigned long index,
 {
        MA_STATE(mas, mt, index, last);
        MA_WR_STATE(wr_mas, &mas, entry);
+       int ret = 0;
 
        trace_ma_write(__func__, &mas, 0, entry);
        if (WARN_ON_ONCE(xa_is_advanced(entry)))
@@ -6427,10 +6431,12 @@ retry:
                goto retry;
 
        mtree_unlock(mt);
+
        if (mas_is_err(&mas))
-               return xa_err(mas.node);
+               ret = xa_err(mas.node);
 
-       return 0;
+       mas_destroy(&mas);
+       return ret;
 }
 EXPORT_SYMBOL(mtree_store_range);
 
@@ -6466,6 +6472,7 @@ int mtree_insert_range(struct maple_tree *mt, unsigned long first,
                unsigned long last, void *entry, gfp_t gfp)
 {
        MA_STATE(ms, mt, first, last);
+       int ret = 0;
 
        if (WARN_ON_ONCE(xa_is_advanced(entry)))
                return -EINVAL;
@@ -6481,9 +6488,10 @@ retry:
 
        mtree_unlock(mt);
        if (mas_is_err(&ms))
-               return xa_err(ms.node);
+               ret = xa_err(ms.node);
 
-       return 0;
+       mas_destroy(&ms);
+       return ret;
 }
 EXPORT_SYMBOL(mtree_insert_range);
 
@@ -6538,6 +6546,7 @@ retry:
 
 unlock:
        mtree_unlock(mt);
+       mas_destroy(&mas);
        return ret;
 }
 EXPORT_SYMBOL(mtree_alloc_range);
@@ -6576,6 +6585,7 @@ retry:
 
 unlock:
        mtree_unlock(mt);
+       mas_destroy(&mas);
        return ret;
 }
 EXPORT_SYMBOL(mtree_alloc_rrange);
index f1caf4bcf93740c87d49dbbc0ef9de5b56a01562..194da3341a25689a9f9ee4dcf1be5f7e36b695c7 100644 (file)
@@ -119,7 +119,7 @@ static noinline void __init check_new_node(struct maple_tree *mt)
        MT_BUG_ON(mt, mas.alloc->slot[0] == NULL);
        mas_push_node(&mas, mn);
        mas_reset(&mas);
-       mas_nomem(&mas, GFP_KERNEL); /* free */
+       mas_destroy(&mas);
        mtree_unlock(mt);
 
 
@@ -143,7 +143,7 @@ static noinline void __init check_new_node(struct maple_tree *mt)
        mn->parent = ma_parent_ptr(mn);
        ma_free_rcu(mn);
        mas.status = ma_start;
-       mas_nomem(&mas, GFP_KERNEL);
+       mas_destroy(&mas);
        /* Allocate 3 nodes, will fail. */
        mas_node_count(&mas, 3);
        /* Drop the lock and allocate 3 nodes. */
@@ -160,7 +160,7 @@ static noinline void __init check_new_node(struct maple_tree *mt)
        MT_BUG_ON(mt, mas_allocated(&mas) != 3);
        /* Free. */
        mas_reset(&mas);
-       mas_nomem(&mas, GFP_KERNEL);
+       mas_destroy(&mas);
 
        /* Set allocation request to 1. */
        mas_set_alloc_req(&mas, 1);
@@ -275,7 +275,7 @@ static noinline void __init check_new_node(struct maple_tree *mt)
                        MT_BUG_ON(mt, mas_allocated(&mas) != i - j - 1);
                }
                mas_reset(&mas);
-               MT_BUG_ON(mt, mas_nomem(&mas, GFP_KERNEL));
+               mas_destroy(&mas);
 
        }
 
@@ -298,7 +298,7 @@ static noinline void __init check_new_node(struct maple_tree *mt)
        }
        MT_BUG_ON(mt, mas_allocated(&mas) != total);
        mas_reset(&mas);
-       mas_nomem(&mas, GFP_KERNEL); /* Free. */
+       mas_destroy(&mas); /* Free. */
 
        MT_BUG_ON(mt, mas_allocated(&mas) != 0);
        for (i = 1; i < 128; i++) {
@@ -35846,6 +35846,7 @@ static noinline void __init check_nomem(struct maple_tree *mt)
        mas_store(&ms, &ms); /* insert 1 -> &ms */
        mas_nomem(&ms, GFP_KERNEL); /* Node allocated in here. */
        mtree_unlock(mt);
+       mas_destroy(&ms);
        mtree_destroy(mt);
 }