]> www.infradead.org Git - users/jedix/linux-maple.git/commitdiff
maple_tree: have mas_store() allocate nodes if needed
authorSidhartha Kumar <sidhartha.kumar@oracle.com>
Thu, 18 Jan 2024 20:46:57 +0000 (12:46 -0800)
committerLiam R. Howlett <Liam.Howlett@oracle.com>
Sat, 20 Apr 2024 01:40:09 +0000 (21:40 -0400)
Not all users of mas_store() enter with nodes already preallocated.
Check for the MA_STATE_PREALLOC flag to decide whether to preallocate nodes
within mas_store() rather than relying on future write helper functions
to perform the allocations. This allows the write helper functions to be
simplified as they do not have to do checks to make sure there are
enough allocated nodes to perform the write.

Signed-off-by: Sidhartha Kumar <sidhartha.kumar@oracle.com>
lib/maple_tree.c

index cbb122315ccceb0f0fbfbb17efaf9dd6b0ac17f7..e4b165be79feee21933db878656404c2eb243903 100644 (file)
@@ -5478,6 +5478,20 @@ static inline void mte_destroy_walk(struct maple_enode *enode,
                mt_destroy_walk(enode, mt, true);
        }
 }
+
+static inline void mas_wr_store_prealloc(struct ma_wr_state *wr_mas, void *entry)
+{
+       struct ma_state *mas = wr_mas->mas;
+       int request;
+
+       mas_wr_prealloc_setup(wr_mas);
+       mas_wr_store_type(wr_mas);
+       request = mas_prealloc_calc(mas, entry);
+       if (!request)
+               return;
+
+       mas_node_count(mas, request);
+}
 /* Interface */
 
 /**
@@ -5486,8 +5500,6 @@ static inline void mte_destroy_walk(struct maple_enode *enode,
  * @entry: The entry to store.
  *
  * The @mas->index and @mas->last is used to set the range for the @entry.
- * Note: The @mas should have pre-allocated entries to ensure there is memory to
- * store the entry.  Please see mas_expected_entries()/mas_destroy() for more details.
  *
  * Return: the first entry between mas->index and mas->last or %NULL.
  */
@@ -5513,9 +5525,21 @@ void *mas_store(struct ma_state *mas, void *entry)
         * want to examine what happens if a single store operation was to
         * overwrite multiple entries within a self-balancing B-Tree.
         */
-       mas_wr_prealloc_setup(&wr_mas);
-       mas_wr_store_type(&wr_mas);
+       if (mas->mas_flags & MA_STATE_PREALLOC) {
+               mas_wr_prealloc_setup(&wr_mas);
+               mas_wr_store_type(&wr_mas);
+               mas_wr_store_entry(&wr_mas);
+               MAS_WR_BUG_ON(&wr_mas, mas_is_err(mas));
+               return wr_mas.content;
+       }
+
+       mas_wr_store_prealloc(&wr_mas, entry);
+       WARN_ON_ONCE(mas->store_type == wr_invalid);
+       if (mas_is_err(mas))
+               return NULL;
+
        mas_wr_store_entry(&wr_mas);
+       mas_destroy(mas);
        return wr_mas.content;
 }
 EXPORT_SYMBOL_GPL(mas_store);