#include "xe_device_types.h"
 #include "xe_mmio.h"
 
-static inline struct xe_gt *__compat_uncore_to_gt(struct intel_uncore *uncore)
+static inline struct xe_mmio *__compat_uncore_to_mmio(struct intel_uncore *uncore)
 {
        struct xe_device *xe = container_of(uncore, struct xe_device, uncore);
 
-       return xe_root_mmio_gt(xe);
+       return xe_root_tile_mmio(xe);
 }
 
 static inline struct xe_tile *__compat_uncore_to_tile(struct intel_uncore *uncore)
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_read32(__compat_uncore_to_gt(uncore), reg);
+       return xe_mmio_read32(__compat_uncore_to_mmio(uncore), reg);
 }
 
 static inline u8 intel_uncore_read8(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_read8(__compat_uncore_to_gt(uncore), reg);
+       return xe_mmio_read8(__compat_uncore_to_mmio(uncore), reg);
 }
 
 static inline u16 intel_uncore_read16(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_read16(__compat_uncore_to_gt(uncore), reg);
+       return xe_mmio_read16(__compat_uncore_to_mmio(uncore), reg);
 }
 
 static inline u64
        u32 upper, lower, old_upper;
        int loop = 0;
 
-       upper = xe_mmio_read32(__compat_uncore_to_gt(uncore), upper_reg);
+       upper = xe_mmio_read32(__compat_uncore_to_mmio(uncore), upper_reg);
        do {
                old_upper = upper;
-               lower = xe_mmio_read32(__compat_uncore_to_gt(uncore), lower_reg);
-               upper = xe_mmio_read32(__compat_uncore_to_gt(uncore), upper_reg);
+               lower = xe_mmio_read32(__compat_uncore_to_mmio(uncore), lower_reg);
+               upper = xe_mmio_read32(__compat_uncore_to_mmio(uncore), upper_reg);
        } while (upper != old_upper && loop++ < 2);
 
        return (u64)upper << 32 | lower;
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       xe_mmio_read32(__compat_uncore_to_gt(uncore), reg);
+       xe_mmio_read32(__compat_uncore_to_mmio(uncore), reg);
 }
 
 static inline void intel_uncore_write(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       xe_mmio_write32(__compat_uncore_to_gt(uncore), reg, val);
+       xe_mmio_write32(__compat_uncore_to_mmio(uncore), reg, val);
 }
 
 static inline u32 intel_uncore_rmw(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_rmw32(__compat_uncore_to_gt(uncore), reg, clear, set);
+       return xe_mmio_rmw32(__compat_uncore_to_mmio(uncore), reg, clear, set);
 }
 
 static inline int intel_wait_for_register(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_wait32(__compat_uncore_to_gt(uncore), reg, mask, value,
+       return xe_mmio_wait32(__compat_uncore_to_mmio(uncore), reg, mask, value,
                              timeout * USEC_PER_MSEC, NULL, false);
 }
 
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_wait32(__compat_uncore_to_gt(uncore), reg, mask, value,
+       return xe_mmio_wait32(__compat_uncore_to_mmio(uncore), reg, mask, value,
                              timeout * USEC_PER_MSEC, NULL, false);
 }
 
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_wait32(__compat_uncore_to_gt(uncore), reg, mask, value,
+       return xe_mmio_wait32(__compat_uncore_to_mmio(uncore), reg, mask, value,
                              fast_timeout_us + 1000 * slow_timeout_ms,
                              out_value, false);
 }
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_read32(__compat_uncore_to_gt(uncore), reg);
+       return xe_mmio_read32(__compat_uncore_to_mmio(uncore), reg);
 }
 
 static inline void intel_uncore_write_fw(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       xe_mmio_write32(__compat_uncore_to_gt(uncore), reg, val);
+       xe_mmio_write32(__compat_uncore_to_mmio(uncore), reg, val);
 }
 
 static inline u32 intel_uncore_read_notrace(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       return xe_mmio_read32(__compat_uncore_to_gt(uncore), reg);
+       return xe_mmio_read32(__compat_uncore_to_mmio(uncore), reg);
 }
 
 static inline void intel_uncore_write_notrace(struct intel_uncore *uncore,
 {
        struct xe_reg reg = XE_REG(i915_mmio_reg_offset(i915_reg));
 
-       xe_mmio_write32(__compat_uncore_to_gt(uncore), reg, val);
+       xe_mmio_write32(__compat_uncore_to_mmio(uncore), reg, val);
 }
 
 static inline void __iomem *intel_uncore_regs(struct intel_uncore *uncore)