(0x001d43e0 + 0x00001800),
 };
 
+static inline bool gmc_v9_0_is_multi_chiplet(struct amdgpu_device *adev)
+{
+       return !!adev->aid_mask;
+}
+
 static int gmc_v9_0_ecc_interrupt_state(struct amdgpu_device *adev,
                struct amdgpu_irq_src *src,
                unsigned int type,
                addr, entry->client_id,
                soc15_ih_clientid_name[entry->client_id]);
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0))
+       if (gmc_v9_0_is_multi_chiplet(adev))
                dev_err(adev->dev, "  cookie node_id %d fault from die %s%d%s\n",
                        node_id, node_id % 4 == 3 ? "RSV" : "AID", node_id / 4,
                        node_id % 4 == 1 ? ".XCD0" : node_id % 4 == 2 ? ".XCD1" : "");
                                       uint32_t vmhub)
 {
        if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 2) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0))
+           gmc_v9_0_is_multi_chiplet(adev))
                return false;
 
        return ((vmhub == AMDGPU_MMHUB0(0) ||
        /* Only GFX 9.4.3 APUs associate GPUs with NUMA nodes. Local system
         * memory can use more efficient MTYPEs.
         */
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 3) &&
-           amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 4) &&
-           amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 5, 0))
+       if (!(adev->flags & AMD_IS_APU) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 3))
                return;
 
        /* Only direct-mapped memory allows us to determine the NUMA node from
 
 static void gmc_v9_0_set_gfxhub_funcs(struct amdgpu_device *adev)
 {
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0))
+       if (gmc_v9_0_is_multi_chiplet(adev))
                adev->gfxhub.funcs = &gfxhub_v1_2_funcs;
        else
                adev->gfxhub.funcs = &gfxhub_v1_0_funcs;
         */
        if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 0) ||
            amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 1) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0))
+           gmc_v9_0_is_multi_chiplet(adev))
                adev->gmc.xgmi.supported = true;
 
        if (amdgpu_ip_version(adev, XGMI_HWIP, 0) == IP_VERSION(6, 1, 0)) {
                        adev->smuio.funcs->is_host_gpu_xgmi_supported(adev);
        }
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)) {
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3)) {
                enum amdgpu_pkg_type pkg_type =
                        adev->smuio.funcs->get_pkg_type(adev);
                /* On GFXIP 9.4.3. APU, there is no physical VRAM domain present
 
        spin_lock_init(&adev->gmc.invalidate_lock);
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0)) {
+       if (gmc_v9_0_is_multi_chiplet(adev)) {
                gmc_v9_4_3_init_vram_info(adev);
        } else if (!adev->bios) {
                if (adev->flags & AMD_IS_APU) {
 
        amdgpu_gmc_get_vbios_allocations(adev);
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0)) {
+       if (gmc_v9_0_is_multi_chiplet(adev)) {
                r = gmc_v9_0_init_mem_ranges(adev);
                if (r)
                        return r;
        adev->vm_manager.first_kfd_vmid =
                (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 1) ||
                 amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 2) ||
-                amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-                amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-                amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0)) ?
+                gmc_v9_0_is_multi_chiplet(adev)) ?
                        3 :
                        8;
 
        if (r)
                return r;
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0))
+       if (gmc_v9_0_is_multi_chiplet(adev))
                amdgpu_gmc_sysfs_init(adev);
 
        return 0;
 {
        struct amdgpu_device *adev = ip_block->adev;
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 5, 0))
+       if (gmc_v9_0_is_multi_chiplet(adev))
                amdgpu_gmc_sysfs_fini(adev);
 
        amdgpu_gmc_ras_fini(adev);