}
 
 static __always_inline void
-link_va(struct vmap_area *va, struct rb_root *root,
-       struct rb_node *parent, struct rb_node **link, struct list_head *head)
+__link_va(struct vmap_area *va, struct rb_root *root,
+       struct rb_node *parent, struct rb_node **link,
+       struct list_head *head, bool augment)
 {
        /*
         * VA is still not in the list, but we can
 
        /* Insert to the rb-tree */
        rb_link_node(&va->rb_node, parent, link);
-       if (root == &free_vmap_area_root) {
+       if (augment) {
                /*
                 * Some explanation here. Just perform simple insertion
                 * to the tree. We do not set va->subtree_max_size to
 }
 
 static __always_inline void
-unlink_va(struct vmap_area *va, struct rb_root *root)
+link_va(struct vmap_area *va, struct rb_root *root,
+       struct rb_node *parent, struct rb_node **link,
+       struct list_head *head)
+{
+       __link_va(va, root, parent, link, head, false);
+}
+
+static __always_inline void
+link_va_augment(struct vmap_area *va, struct rb_root *root,
+       struct rb_node *parent, struct rb_node **link,
+       struct list_head *head)
+{
+       __link_va(va, root, parent, link, head, true);
+}
+
+static __always_inline void
+__unlink_va(struct vmap_area *va, struct rb_root *root, bool augment)
 {
        if (WARN_ON(RB_EMPTY_NODE(&va->rb_node)))
                return;
 
-       if (root == &free_vmap_area_root)
+       if (augment)
                rb_erase_augmented(&va->rb_node,
                        root, &free_vmap_area_rb_augment_cb);
        else
        RB_CLEAR_NODE(&va->rb_node);
 }
 
+static __always_inline void
+unlink_va(struct vmap_area *va, struct rb_root *root)
+{
+       __unlink_va(va, root, false);
+}
+
+static __always_inline void
+unlink_va_augment(struct vmap_area *va, struct rb_root *root)
+{
+       __unlink_va(va, root, true);
+}
+
 #if DEBUG_AUGMENT_PROPAGATE_CHECK
 /*
  * Gets called when remove the node and rotate.
                link = find_va_links(va, root, NULL, &parent);
 
        if (link) {
-               link_va(va, root, parent, link, head);
+               link_va_augment(va, root, parent, link, head);
                augment_tree_propagate_from(va);
        }
 }
  * ongoing.
  */
 static __always_inline struct vmap_area *
-merge_or_add_vmap_area(struct vmap_area *va,
-       struct rb_root *root, struct list_head *head)
+__merge_or_add_vmap_area(struct vmap_area *va,
+       struct rb_root *root, struct list_head *head, bool augment)
 {
        struct vmap_area *sibling;
        struct list_head *next;
                         * "normalized" because of rotation operations.
                         */
                        if (merged)
-                               unlink_va(va, root);
+                               __unlink_va(va, root, augment);
 
                        sibling->va_end = va->va_end;
 
 
 insert:
        if (!merged)
-               link_va(va, root, parent, link, head);
+               __link_va(va, root, parent, link, head, augment);
 
        return va;
 }
 
+static __always_inline struct vmap_area *
+merge_or_add_vmap_area(struct vmap_area *va,
+       struct rb_root *root, struct list_head *head)
+{
+       return __merge_or_add_vmap_area(va, root, head, false);
+}
+
 static __always_inline struct vmap_area *
 merge_or_add_vmap_area_augment(struct vmap_area *va,
        struct rb_root *root, struct list_head *head)
 {
-       va = merge_or_add_vmap_area(va, root, head);
+       va = __merge_or_add_vmap_area(va, root, head, true);
        if (va)
                augment_tree_propagate_from(va);
 
                 * V      NVA      V
                 * |---------------|
                 */
-               unlink_va(va, &free_vmap_area_root);
+               unlink_va_augment(va, &free_vmap_area_root);
                kmem_cache_free(vmap_area_cachep, va);
        } else if (type == LE_FIT_TYPE) {
                /*