XA_BUG_ON(xa, count != order_limit);
 
        xa_destroy(xa);
+
+       index = 0;
+       for (order = XA_CHUNK_SHIFT; order > 0; order--) {
+               XA_BUG_ON(xa, xa_store_order(xa, index, order,
+                                       xa_mk_index(index), GFP_KERNEL));
+               index += 1UL << order;
+       }
+
+       index = 0;
+       count = 0;
+       xas_set(&xas, 0);
+       rcu_read_lock();
+       xas_for_each(&xas, entry, ULONG_MAX) {
+               XA_BUG_ON(xa, entry != xa_mk_index(index));
+               index += 1UL << (XA_CHUNK_SHIFT - count);
+               count++;
+       }
+       rcu_read_unlock();
+       XA_BUG_ON(xa, count != XA_CHUNK_SHIFT);
+
+       index = 0;
+       count = 0;
+       xas_set(&xas, XA_CHUNK_SIZE / 2 + 1);
+       rcu_read_lock();
+       xas_for_each(&xas, entry, ULONG_MAX) {
+               XA_BUG_ON(xa, entry != xa_mk_index(index));
+               index += 1UL << (XA_CHUNK_SHIFT - count);
+               count++;
+               xas_pause(&xas);
+       }
+       rcu_read_unlock();
+       XA_BUG_ON(xa, count != XA_CHUNK_SHIFT);
+
+       xa_destroy(xa);
+
 }
 
 static noinline void check_move_tiny(struct kunit *test)
 
                        if (!xa_is_sibling(xa_entry(xas->xa, node, offset)))
                                break;
                }
+               xas->xa_index &= ~0UL << node->shift;
                xas->xa_index += (offset - xas->xa_offset) << node->shift;
                if (xas->xa_index == 0)
                        xas->xa_node = XAS_BOUNDS;