]> www.infradead.org Git - users/dwmw2/linux.git/commitdiff
drm/amdgpu: Add gfx v9_4_4 ip block
authorHawking Zhang <Hawking.Zhang@amd.com>
Tue, 16 Apr 2024 21:32:46 +0000 (05:32 +0800)
committerAlex Deucher <alexander.deucher@amd.com>
Thu, 2 May 2024 19:49:16 +0000 (15:49 -0400)
Add gfx v9_4_4 ip block support

Signed-off-by: Hawking Zhang <Hawking.Zhang@amd.com>
Reviewed-by: Le Ma <le.ma@amd.com>
Signed-off-by: Alex Deucher <alexander.deucher@amd.com>
21 files changed:
drivers/gpu/drm/amd/amdgpu/amdgpu_device.c
drivers/gpu/drm/amd/amdgpu/amdgpu_discovery.c
drivers/gpu/drm/amd/amdgpu/amdgpu_gfx.c
drivers/gpu/drm/amd/amdgpu/amdgpu_gmc.c
drivers/gpu/drm/amd/amdgpu/amdgpu_ttm.c
drivers/gpu/drm/amd/amdgpu/gfx_v9_4_3.c
drivers/gpu/drm/amd/amdgpu/gfxhub_v1_2.c
drivers/gpu/drm/amd/amdgpu/gmc_v9_0.c
drivers/gpu/drm/amd/amdgpu/soc15.c
drivers/gpu/drm/amd/amdkfd/kfd_crat.c
drivers/gpu/drm/amd/amdkfd/kfd_debug.h
drivers/gpu/drm/amd/amdkfd/kfd_device.c
drivers/gpu/drm/amd/amdkfd/kfd_device_queue_manager_v9.c
drivers/gpu/drm/amd/amdkfd/kfd_mqd_manager_v9.c
drivers/gpu/drm/amd/amdkfd/kfd_packet_manager.c
drivers/gpu/drm/amd/amdkfd/kfd_priv.h
drivers/gpu/drm/amd/amdkfd/kfd_process.c
drivers/gpu/drm/amd/amdkfd/kfd_process_queue_manager.c
drivers/gpu/drm/amd/amdkfd/kfd_svm.c
drivers/gpu/drm/amd/amdkfd/kfd_topology.c
drivers/gpu/drm/amd/pm/amdgpu_pm.c

index e91ac50a3c8c0ac99e046183313ccc0ea725564d..7a6e3d13a454055f3867a8a7b229e5986833b6e9 100644 (file)
@@ -1308,6 +1308,7 @@ static int amdgpu_device_asic_init(struct amdgpu_device *adev)
        amdgpu_asic_pre_asic_init(adev);
 
        if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
            amdgpu_ip_version(adev, GC_HWIP, 0) >= IP_VERSION(11, 0, 0)) {
                amdgpu_psp_wait_for_bootloader(adev);
                ret = amdgpu_atomfirmware_asic_init(adev, true);
@@ -5126,6 +5127,7 @@ static int amdgpu_device_reset_sriov(struct amdgpu_device *adev,
        /* Aldebaran and gfx_11_0_3 support ras in SRIOV, so need resume ras during reset */
        if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 2) ||
            amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4) ||
            amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(11, 0, 3))
                amdgpu_ras_resume(adev);
        return 0;
@@ -6275,8 +6277,9 @@ pci_ers_result_t amdgpu_pci_slot_reset(struct pci_dev *pdev)
                amdgpu_put_xgmi_hive(hive);
        }
        ras = amdgpu_ras_get_context(adev);
-       if ((amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3)) &&
-                ras && (atomic_read(&ras->in_recovery) || hive_ras_recovery))
+       if ((amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+            amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)) &&
+           ras && (atomic_read(&ras->in_recovery) || hive_ras_recovery))
                return PCI_ERS_RESULT_RECOVERED;
 
        DRM_INFO("PCI error: slot reset callback!!\n");
index 572c6ac27ccc3c13b0f0570c4ef79c1e613fcdf9..5b17ff517a1ea84a1eb6113bffeca9efe67c3d79 100644 (file)
@@ -1424,7 +1424,8 @@ static void amdgpu_discovery_harvest_ip(struct amdgpu_device *adev)
         * harvest configuration.
         */
        if (amdgpu_ip_version(adev, GC_HWIP, 0) < IP_VERSION(10, 2, 0) &&
-           amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 3)) {
+           amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 3) &&
+           amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 4)) {
                if ((adev->pdev->device == 0x731E &&
                        (adev->pdev->revision == 0xC6 ||
                         adev->pdev->revision == 0xC7)) ||
@@ -1677,6 +1678,7 @@ static int amdgpu_discovery_set_common_ip_blocks(struct amdgpu_device *adev)
        case IP_VERSION(9, 4, 1):
        case IP_VERSION(9, 4, 2):
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                amdgpu_device_ip_block_add(adev, &vega10_common_ip_block);
                break;
        case IP_VERSION(10, 1, 10):
@@ -1729,6 +1731,7 @@ static int amdgpu_discovery_set_gmc_ip_blocks(struct amdgpu_device *adev)
        case IP_VERSION(9, 4, 1):
        case IP_VERSION(9, 4, 2):
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                amdgpu_device_ip_block_add(adev, &gmc_v9_0_ip_block);
                break;
        case IP_VERSION(10, 1, 10):
@@ -2019,6 +2022,7 @@ static int amdgpu_discovery_set_gc_ip_blocks(struct amdgpu_device *adev)
                amdgpu_device_ip_block_add(adev, &gfx_v9_0_ip_block);
                break;
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                amdgpu_device_ip_block_add(adev, &gfx_v9_4_3_ip_block);
                break;
        case IP_VERSION(10, 1, 10):
@@ -2243,6 +2247,7 @@ static void amdgpu_discovery_init_soc_config(struct amdgpu_device *adev)
 {
        switch (amdgpu_ip_version(adev, GC_HWIP, 0)) {
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                aqua_vanjaram_init_soc_config(adev);
                break;
        default:
@@ -2468,6 +2473,7 @@ int amdgpu_discovery_set_ip_blocks(struct amdgpu_device *adev)
        case IP_VERSION(9, 4, 1):
        case IP_VERSION(9, 4, 2):
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                adev->family = AMDGPU_FAMILY_AI;
                break;
        case IP_VERSION(9, 1, 0):
@@ -2539,7 +2545,8 @@ int amdgpu_discovery_set_ip_blocks(struct amdgpu_device *adev)
        if (amdgpu_ip_version(adev, XGMI_HWIP, 0) == IP_VERSION(4, 8, 0))
                adev->gmc.xgmi.supported = true;
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4))
                adev->ip_versions[XGMI_HWIP][0] = IP_VERSION(6, 4, 0);
 
        /* set NBIO version */
index f5a0d96cd29c06ed0624bd163c04fb440a316a4d..be72837c3cf23978b6c026efa826fbe1320f55c3 100644 (file)
@@ -539,7 +539,8 @@ int amdgpu_gfx_disable_kcq(struct amdgpu_device *adev, int xcc_id)
        }
 
        ras = amdgpu_ras_get_context(adev);
-       if ((amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3)) &&
+       if ((amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+            amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)) &&
                ras && (atomic_read(&ras->in_recovery) || hive_ras_recovery)) {
                spin_unlock(&kiq->ring_lock);
                return 0;
index 9fcf194fea3371dd610ef7608bb1c0824dcc5571..a5f970fec2426863673e5e33053d23866265f335 100644 (file)
@@ -881,6 +881,7 @@ void amdgpu_gmc_noretry_set(struct amdgpu_device *adev)
                                gc_ver == IP_VERSION(9, 4, 1) ||
                                gc_ver == IP_VERSION(9, 4, 2) ||
                                gc_ver == IP_VERSION(9, 4, 3) ||
+                               gc_ver == IP_VERSION(9, 4, 4) ||
                                gc_ver >= IP_VERSION(10, 3, 0));
 
        if (!amdgpu_sriov_xnack_support(adev))
index 5f075f01dbf12732932676cb62222be232edb9b7..80974d72cbc16ed9ef3ed274d8977162ea222fb0 100644 (file)
@@ -1742,7 +1742,8 @@ static int amdgpu_ttm_reserve_tmr(struct amdgpu_device *adev)
                        amdgpu_atomfirmware_get_fw_reserved_fb_size(adev);
 
        if (!adev->bios &&
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+           (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+            amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)))
                reserve_size = max(reserve_size, (uint32_t)280 << 20);
        else if (!reserve_size)
                reserve_size = DISCOVERY_TMR_OFFSET;
index 7b16e8cca86ac008df01fdcaf17226c808c8610b..07b299ec7169fa26ba92f754c8ab122c93b6e26b 100644 (file)
@@ -41,7 +41,9 @@
 #include "amdgpu_aca.h"
 
 MODULE_FIRMWARE("amdgpu/gc_9_4_3_mec.bin");
+MODULE_FIRMWARE("amdgpu/gc_9_4_4_mec.bin");
 MODULE_FIRMWARE("amdgpu/gc_9_4_3_rlc.bin");
+MODULE_FIRMWARE("amdgpu/gc_9_4_4_rlc.bin");
 
 #define GFX9_MEC_HPD_SIZE 4096
 #define RLCG_UCODE_LOADING_START_ADDRESS 0x00002000L
@@ -755,6 +757,7 @@ static int gfx_v9_4_3_gpu_early_init(struct amdgpu_device *adev)
 
        switch (amdgpu_ip_version(adev, GC_HWIP, 0)) {
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                adev->gfx.config.max_hw_contexts = 8;
                adev->gfx.config.sc_prim_fifo_size_frontend = 0x20;
                adev->gfx.config.sc_prim_fifo_size_backend = 0x100;
@@ -2502,6 +2505,7 @@ static int gfx_v9_4_3_set_clockgating_state(void *handle,
        num_xcc = NUM_XCC(adev->gfx.xcc_mask);
        switch (amdgpu_ip_version(adev, GC_HWIP, 0)) {
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                for (i = 0; i < num_xcc; i++)
                        gfx_v9_4_3_xcc_update_gfx_clock_gating(
                                adev, state == AMD_CG_STATE_GATE, i);
@@ -4138,6 +4142,7 @@ static void gfx_v9_4_3_set_gds_init(struct amdgpu_device *adev)
        /* init asci gds info */
        switch (amdgpu_ip_version(adev, GC_HWIP, 0)) {
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                /* 9.4.3 removed all the GDS internal memory,
                 * only support GWS opcode in kernel, like barrier
                 * semaphore.etc */
@@ -4150,6 +4155,7 @@ static void gfx_v9_4_3_set_gds_init(struct amdgpu_device *adev)
 
        switch (amdgpu_ip_version(adev, GC_HWIP, 0)) {
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                /* deprecated for 9.4.3, no usage at all */
                adev->gds.gds_compute_max_wave_id = 0;
                break;
index 77df8c9cbad2fe057d11b43335707e1ef941d581..e14acab5cceb1977920c6cd23ce873de47e68de8 100644 (file)
@@ -366,7 +366,9 @@ static void gfxhub_v1_2_xcc_setup_vmid_config(struct amdgpu_device *adev,
                                        amdgpu_ip_version(adev, GC_HWIP, 0) ==
                                                IP_VERSION(9, 4, 2) ||
                                        amdgpu_ip_version(adev, GC_HWIP, 0) ==
-                                               IP_VERSION(9, 4, 3));
+                                               IP_VERSION(9, 4, 3) ||
+                                       amdgpu_ip_version(adev, GC_HWIP, 0) ==
+                                               IP_VERSION(9, 4, 4));
                        WREG32_SOC15_OFFSET(GC, GET_INST(GC, j), regVM_CONTEXT1_CNTL,
                                            i * hub->ctx_distance, tmp);
                        WREG32_SOC15_OFFSET(GC, GET_INST(GC, j),
index c4ec1358f3aa68dc08c2d4b660efcad97111fed2..671a6766df5bf65a804ebd973f5725dd1a179264 100644 (file)
@@ -644,7 +644,8 @@ static int gmc_v9_0_process_interrupt(struct amdgpu_device *adev,
                addr, entry->client_id,
                soc15_ih_clientid_name[entry->client_id]);
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4))
                dev_err(adev->dev, "  cookie node_id %d fault from die %s%d%s\n",
                        node_id, node_id % 4 == 3 ? "RSV" : "AID", node_id / 4,
                        node_id % 4 == 1 ? ".XCD0" : node_id % 4 == 2 ? ".XCD1" : "");
@@ -786,7 +787,8 @@ static bool gmc_v9_0_use_invalidate_semaphore(struct amdgpu_device *adev,
                                       uint32_t vmhub)
 {
        if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 2) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4))
                return false;
 
        return ((vmhub == AMDGPU_MMHUB0(0) ||
@@ -1170,6 +1172,7 @@ static void gmc_v9_0_get_coherence_flags(struct amdgpu_device *adev,
                }
                break;
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                /* Only local VRAM BOs or system memory on non-NUMA APUs
                 * can be assumed to be local in their entirety. Choose
                 * MTYPE_NC as safe fallback for all system memory BOs on
@@ -1261,7 +1264,8 @@ static void gmc_v9_0_override_vm_pte_flags(struct amdgpu_device *adev,
        /* Only GFX 9.4.3 APUs associate GPUs with NUMA nodes. Local system
         * memory can use more efficient MTYPEs.
         */
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 3))
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 3) &&
+           amdgpu_ip_version(adev, GC_HWIP, 0) != IP_VERSION(9, 4, 4))
                return;
 
        /* Only direct-mapped memory allows us to determine the NUMA node from
@@ -1506,7 +1510,8 @@ static void gmc_v9_0_set_mmhub_ras_funcs(struct amdgpu_device *adev)
 
 static void gmc_v9_0_set_gfxhub_funcs(struct amdgpu_device *adev)
 {
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4))
                adev->gfxhub.funcs = &gfxhub_v1_2_funcs;
        else
                adev->gfxhub.funcs = &gfxhub_v1_0_funcs;
@@ -1551,7 +1556,8 @@ static int gmc_v9_0_early_init(void *handle)
         */
        if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 0) ||
            amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 1) ||
-           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4))
                adev->gmc.xgmi.supported = true;
 
        if (amdgpu_ip_version(adev, XGMI_HWIP, 0) == IP_VERSION(6, 1, 0)) {
@@ -1560,7 +1566,8 @@ static int gmc_v9_0_early_init(void *handle)
                        adev->smuio.funcs->is_host_gpu_xgmi_supported(adev);
        }
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3)) {
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)) {
                enum amdgpu_pkg_type pkg_type =
                        adev->smuio.funcs->get_pkg_type(adev);
                /* On GFXIP 9.4.3. APU, there is no physical VRAM domain present
@@ -1722,6 +1729,7 @@ static int gmc_v9_0_mc_init(struct amdgpu_device *adev)
                case IP_VERSION(9, 4, 1):
                case IP_VERSION(9, 4, 2):
                case IP_VERSION(9, 4, 3):
+               case IP_VERSION(9, 4, 4):
                default:
                        adev->gmc.gart_size = 512ULL << 20;
                        break;
@@ -1976,7 +1984,8 @@ static int gmc_v9_0_sw_init(void *handle)
 
        spin_lock_init(&adev->gmc.invalidate_lock);
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3)) {
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)) {
                gmc_v9_4_3_init_vram_info(adev);
        } else if (!adev->bios) {
                if (adev->flags & AMD_IS_APU) {
@@ -2059,6 +2068,7 @@ static int gmc_v9_0_sw_init(void *handle)
                adev->gmc.translate_further = adev->vm_manager.num_level > 1;
                break;
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                bitmap_set(adev->vmhubs_mask, AMDGPU_GFXHUB(0),
                                  NUM_XCC(adev->gfx.xcc_mask));
 
@@ -2124,7 +2134,8 @@ static int gmc_v9_0_sw_init(void *handle)
 
        amdgpu_gmc_get_vbios_allocations(adev);
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3)) {
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)) {
                r = gmc_v9_0_init_mem_ranges(adev);
                if (r)
                        return r;
@@ -2152,7 +2163,8 @@ static int gmc_v9_0_sw_init(void *handle)
        adev->vm_manager.first_kfd_vmid =
                (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 1) ||
                 amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 2) ||
-                amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3)) ?
+                amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+                amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4)) ?
                        3 :
                        8;
 
@@ -2164,7 +2176,8 @@ static int gmc_v9_0_sw_init(void *handle)
        if (r)
                return r;
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4))
                amdgpu_gmc_sysfs_init(adev);
 
        return 0;
@@ -2174,7 +2187,8 @@ static int gmc_v9_0_sw_fini(void *handle)
 {
        struct amdgpu_device *adev = (struct amdgpu_device *)handle;
 
-       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3))
+       if (amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 3) ||
+           amdgpu_ip_version(adev, GC_HWIP, 0) == IP_VERSION(9, 4, 4))
                amdgpu_gmc_sysfs_fini(adev);
 
        amdgpu_gmc_ras_fini(adev);
index 5169795df38c2ac4269cef2e5dd3e24e0d062fb5..8806f54df8bb9a16c70ce4d4b4b5c30ad7ab8055 100644 (file)
@@ -1174,6 +1174,7 @@ static int soc15_common_early_init(void *handle)
                adev->external_rev_id = adev->rev_id + 0x3c;
                break;
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                adev->asic_funcs = &aqua_vanjaram_asic_funcs;
                adev->cg_flags =
                        AMD_CG_SUPPORT_GFX_MGCG | AMD_CG_SUPPORT_GFX_CGCG |
@@ -1185,6 +1186,7 @@ static int soc15_common_early_init(void *handle)
                        AMD_PG_SUPPORT_VCN |
                        AMD_PG_SUPPORT_VCN_DPG |
                        AMD_PG_SUPPORT_JPEG;
+               /*TODO: need a new external_rev_id for GC 9.4.4? */
                adev->external_rev_id = adev->rev_id + 0x46;
                /* GC 9.4.3 uses MMIO register region hole at a different offset */
                if (!amdgpu_sriov_vf(adev)) {
index 7f2ae0d15d4a5914cfb70abf7e7cada985f3229d..5141d970d591cfbfa9543023c050665c494d1108 100644 (file)
@@ -1614,6 +1614,7 @@ int kfd_get_gpu_cache_info(struct kfd_node *kdev, struct kfd_gpu_cache_info **pc
                        num_of_cache_types = ARRAY_SIZE(aldebaran_cache_info);
                        break;
                case IP_VERSION(9, 4, 3):
+               case IP_VERSION(9, 4, 4):
                        num_of_cache_types =
                                kfd_fill_gpu_cache_info_from_gfx_config_v2(kdev->kfd,
                                                                        *pcache_info);
index fd0ff64d4184a63094ccb6ad257451c84ce3bde8..43e8cafdd8ff13f5e9899f879b15bb297abcbefd 100644 (file)
@@ -78,6 +78,7 @@ static inline bool kfd_dbg_is_per_vmid_supported(struct kfd_node *dev)
 {
        return (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 2) ||
                KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3) ||
+               KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 4) ||
                KFD_GC_VERSION(dev) >= IP_VERSION(11, 0, 0));
 }
 
index 3c4b758d9733d402d8901b9be3ab459b0215659d..f622f96719ec5675c5995d8f945e3b7598aa1c4f 100644 (file)
@@ -144,6 +144,7 @@ static void kfd_device_info_set_event_interrupt_class(struct kfd_dev *kfd)
                kfd->device_info.event_interrupt_class = &event_interrupt_class_v9;
                break;
        case IP_VERSION(9, 4, 3): /* GC 9.4.3 */
+       case IP_VERSION(9, 4, 4): /* GC 9.4.4 */
                kfd->device_info.event_interrupt_class =
                                                &event_interrupt_class_v9_4_3;
                break;
@@ -333,6 +334,10 @@ struct kfd_dev *kgd2kfd_probe(struct amdgpu_device *adev, bool vf)
                                           : 90401;
                        f2g = &gc_9_4_3_kfd2kgd;
                        break;
+               case IP_VERSION(9, 4, 4):
+                       gfx_target_version = 90402;
+                       f2g = &gc_9_4_3_kfd2kgd;
+                       break;
                /* Navi10 */
                case IP_VERSION(10, 1, 10):
                        gfx_target_version = 100100;
@@ -481,7 +486,8 @@ static void kfd_cwsr_init(struct kfd_dev *kfd)
                                             > KFD_CWSR_TMA_OFFSET);
                        kfd->cwsr_isa = cwsr_trap_aldebaran_hex;
                        kfd->cwsr_isa_size = sizeof(cwsr_trap_aldebaran_hex);
-               } else if (KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3)) {
+               } else if (KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3) ||
+                          KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 4)) {
                        BUILD_BUG_ON(sizeof(cwsr_trap_gfx9_4_3_hex)
                                             > KFD_CWSR_TMA_OFFSET);
                        kfd->cwsr_isa = cwsr_trap_gfx9_4_3_hex;
@@ -531,7 +537,8 @@ static int kfd_gws_init(struct kfd_node *node)
                        && kfd->mec2_fw_version >= 0x30)   ||
                (KFD_GC_VERSION(node) == IP_VERSION(9, 4, 2)
                        && kfd->mec2_fw_version >= 0x28) ||
-               (KFD_GC_VERSION(node) == IP_VERSION(9, 4, 3)) ||
+               (KFD_GC_VERSION(node) == IP_VERSION(9, 4, 3) ||
+                KFD_GC_VERSION(node) == IP_VERSION(9, 4, 4)) ||
                (KFD_GC_VERSION(node) >= IP_VERSION(10, 3, 0)
                        && KFD_GC_VERSION(node) < IP_VERSION(11, 0, 0)
                        && kfd->mec2_fw_version >= 0x6b) ||
@@ -774,7 +781,10 @@ bool kgd2kfd_device_init(struct kfd_dev *kfd,
         * xGMI connected in the topology so assign a unique hive id per
         * device based on the pci device location if device is in PCIe mode.
         */
-       if (!kfd->hive_id && (KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3)) && kfd->num_nodes > 1)
+       if (!kfd->hive_id &&
+           (KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3) ||
+            KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 4)) &&
+           kfd->num_nodes > 1)
                kfd->hive_id = pci_dev_id(kfd->adev->pdev);
 
        kfd->noretry = kfd->adev->gmc.noretry;
@@ -812,7 +822,8 @@ bool kgd2kfd_device_init(struct kfd_dev *kfd,
                                KFD_XCP_MEMORY_SIZE(node->adev, node->node_id) >> 20);
                }
 
-               if (KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3) &&
+               if ((KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3) ||
+                    KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 4)) &&
                    partition_mode == AMDGPU_CPX_PARTITION_MODE &&
                    kfd->num_nodes != 1) {
                        /* For GFX9.4.3 and CPX mode, first XCD gets VMID range
@@ -840,7 +851,8 @@ bool kgd2kfd_device_init(struct kfd_dev *kfd,
                amdgpu_amdkfd_get_local_mem_info(kfd->adev,
                                        &node->local_mem_info, node->xcp);
 
-               if (KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3))
+               if (KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 3) ||
+                   KFD_GC_VERSION(kfd) == IP_VERSION(9, 4, 4))
                        kfd_setup_interrupt_bitmap(node, i);
 
                /* Initialize the KFD node */
index 54eb1bff903c74ed132add9465cc0dde5b6f7ff8..210bcc048f4c511b9cfbd57034964055546135fb 100644 (file)
@@ -63,7 +63,8 @@ static int update_qpd_v9(struct device_queue_manager *dqm,
                if (dqm->dev->kfd->noretry)
                        qpd->sh_mem_config |= 1 << SH_MEM_CONFIG__RETRY_DISABLE__SHIFT;
 
-               if (KFD_GC_VERSION(dqm->dev->kfd) == IP_VERSION(9, 4, 3))
+               if (KFD_GC_VERSION(dqm->dev->kfd) == IP_VERSION(9, 4, 3) ||
+                   KFD_GC_VERSION(dqm->dev->kfd) == IP_VERSION(9, 4, 4))
                        qpd->sh_mem_config |=
                                (1 << SH_MEM_CONFIG__F8_MODE__SHIFT);
 
index 6bddc16808d7a909ce669c2da6eabb5186f88cef..542191656aeb6eb39ba730e95935d588ea8dce40 100644 (file)
@@ -77,7 +77,8 @@ static void update_cu_mask(struct mqd_manager *mm, void *mqd,
        m->compute_static_thread_mgmt_se1 = se_mask[1];
        m->compute_static_thread_mgmt_se2 = se_mask[2];
        m->compute_static_thread_mgmt_se3 = se_mask[3];
-       if (KFD_GC_VERSION(mm->dev) != IP_VERSION(9, 4, 3)) {
+       if (KFD_GC_VERSION(mm->dev) != IP_VERSION(9, 4, 3) &&
+           KFD_GC_VERSION(mm->dev) != IP_VERSION(9, 4, 4)) {
                m->compute_static_thread_mgmt_se4 = se_mask[4];
                m->compute_static_thread_mgmt_se5 = se_mask[5];
                m->compute_static_thread_mgmt_se6 = se_mask[6];
@@ -299,7 +300,8 @@ static void update_mqd(struct mqd_manager *mm, void *mqd,
        if (mm->dev->kfd->cwsr_enabled && q->ctx_save_restore_area_address)
                m->cp_hqd_ctx_save_control = 0;
 
-       if (KFD_GC_VERSION(mm->dev) != IP_VERSION(9, 4, 3))
+       if (KFD_GC_VERSION(mm->dev) != IP_VERSION(9, 4, 3) &&
+           KFD_GC_VERSION(mm->dev) != IP_VERSION(9, 4, 4))
                update_cu_mask(mm, mqd, minfo, 0);
        set_priority(m, q);
 
@@ -875,7 +877,8 @@ struct mqd_manager *mqd_manager_init_v9(enum KFD_MQD_TYPE type,
 #if defined(CONFIG_DEBUG_FS)
                mqd->debugfs_show_mqd = debugfs_show_mqd;
 #endif
-               if (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3)) {
+               if (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3) ||
+                   KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 4)) {
                        mqd->init_mqd = init_mqd_v9_4_3;
                        mqd->load_mqd = load_mqd_v9_4_3;
                        mqd->update_mqd = update_mqd_v9_4_3;
@@ -899,7 +902,8 @@ struct mqd_manager *mqd_manager_init_v9(enum KFD_MQD_TYPE type,
 #if defined(CONFIG_DEBUG_FS)
                mqd->debugfs_show_mqd = debugfs_show_mqd;
 #endif
-               if (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3)) {
+               if (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3) ||
+                   KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 4)) {
                        mqd->init_mqd = init_mqd_hiq_v9_4_3;
                        mqd->load_mqd = hiq_load_mqd_kiq_v9_4_3;
                        mqd->destroy_mqd = destroy_hiq_mqd_v9_4_3;
index d6f65f39072bda6017fc8173e83b17e5828ebe27..7332ad94eab888b85c9eb20b71ab5f579c2e52b8 100644 (file)
@@ -239,7 +239,8 @@ int pm_init(struct packet_manager *pm, struct device_queue_manager *dqm)
                break;
        default:
                if (KFD_GC_VERSION(dqm->dev) == IP_VERSION(9, 4, 2) ||
-                   KFD_GC_VERSION(dqm->dev) == IP_VERSION(9, 4, 3))
+                   KFD_GC_VERSION(dqm->dev) == IP_VERSION(9, 4, 3) ||
+                   KFD_GC_VERSION(dqm->dev) == IP_VERSION(9, 4, 4))
                        pm->pmf = &kfd_aldebaran_pm_funcs;
                else if (KFD_GC_VERSION(dqm->dev) >= IP_VERSION(9, 0, 1))
                        pm->pmf = &kfd_v9_pm_funcs;
index a81ef232fdef96d5b13b7a3be912f504716e3f35..e32ee963eeaba5b786b38c2eec2404f6dc95fafb 100644 (file)
@@ -206,7 +206,8 @@ enum cache_policy {
 #define KFD_IS_SOC15(dev)   ((KFD_GC_VERSION(dev)) >= (IP_VERSION(9, 0, 1)))
 #define KFD_SUPPORT_XNACK_PER_PROCESS(dev)\
        ((KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 2)) ||        \
-        (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3)))
+        (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3)) ||        \
+        (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 4)))
 
 struct kfd_node;
 
@@ -1128,7 +1129,8 @@ static inline struct kfd_node *kfd_node_by_irq_ids(struct amdgpu_device *adev,
        struct kfd_dev *dev = adev->kfd.dev;
        uint32_t i;
 
-       if (KFD_GC_VERSION(dev) != IP_VERSION(9, 4, 3))
+       if (KFD_GC_VERSION(dev) != IP_VERSION(9, 4, 3) &&
+           KFD_GC_VERSION(dev) != IP_VERSION(9, 4, 4))
                return dev->nodes[0];
 
        for (i = 0; i < dev->num_nodes; i++)
index 451bb058cc62039eaf98c0e90487c0884042dfa4..6251f37c312aa840017ba730487f32ae00292985 100644 (file)
@@ -2109,7 +2109,8 @@ int kfd_process_drain_interrupts(struct kfd_process_device *pdd)
        /*
         * For GFX 9.4.3, send the NodeId also in IH cookie DW[3]
         */
-       if (KFD_GC_VERSION(pdd->dev->kfd) == IP_VERSION(9, 4, 3)) {
+       if (KFD_GC_VERSION(pdd->dev->kfd) == IP_VERSION(9, 4, 3) ||
+           KFD_GC_VERSION(pdd->dev->kfd) == IP_VERSION(9, 4, 4)) {
                node_id = ffs(pdd->dev->interrupt_bitmap) - 1;
                irq_drain_fence[3] |= node_id << 16;
        }
index 4858112f9a53b7e491186e0efa0e70dbb92ee47a..6bf79c435f2ebe2ad64fcefce534b7a544011fc9 100644 (file)
@@ -126,7 +126,9 @@ int pqm_set_gws(struct process_queue_manager *pqm, unsigned int qid,
        if (!gws && pdd->qpd.num_gws == 0)
                return -EINVAL;
 
-       if (KFD_GC_VERSION(dev) != IP_VERSION(9, 4, 3) && !dev->kfd->shared_resources.enable_mes) {
+       if (KFD_GC_VERSION(dev) != IP_VERSION(9, 4, 3) &&
+           KFD_GC_VERSION(dev) != IP_VERSION(9, 4, 4) &&
+           !dev->kfd->shared_resources.enable_mes) {
                if (gws)
                        ret = amdgpu_amdkfd_add_gws_to_process(pdd->process->kgd_process_info,
                                gws, &mem);
@@ -189,6 +191,7 @@ static void pqm_clean_queue_resource(struct process_queue_manager *pqm,
 
        if (pqn->q->gws) {
                if (KFD_GC_VERSION(pqn->q->device) != IP_VERSION(9, 4, 3) &&
+                   KFD_GC_VERSION(pqn->q->device) != IP_VERSION(9, 4, 4) &&
                    !dev->kfd->shared_resources.enable_mes)
                        amdgpu_amdkfd_remove_gws_from_process(
                                pqm->process->kgd_process_info, pqn->q->gws);
@@ -290,7 +293,8 @@ int pqm_create_queue(struct process_queue_manager *pqm,
         * On GFX 9.4.3, increase the number of queues that
         * can be created to 255. No HWS limit on GFX 9.4.3.
         */
-       if (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3))
+       if (KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 3) ||
+           KFD_GC_VERSION(dev) == IP_VERSION(9, 4, 4))
                max_queues = 255;
 
        q = NULL;
index 386875e6eb96bacb6585ae58c5620db1f41fde92..037e502f50bc5326f10d5c47a6bf38c20282a45d 100644 (file)
@@ -1213,6 +1213,7 @@ svm_range_get_pte_flags(struct kfd_node *node,
                }
                break;
        case IP_VERSION(9, 4, 3):
+       case IP_VERSION(9, 4, 4):
                if (ext_coherent)
                        mtype_local = node->adev->rev_id ? AMDGPU_VM_MTYPE_CC : AMDGPU_VM_MTYPE_UC;
                else
index c51f131eaa2fbc4c5b69e022b3f2648ca8c24e34..71bea1fcb83860c07f4d46e8e899bcbe7998626c 100644 (file)
@@ -1635,7 +1635,8 @@ static int fill_in_l2_l3_pcache(struct kfd_cache_properties **props_ext,
                pcache->cache_level = pcache_info[cache_type].cache_level;
                pcache->cacheline_size = pcache_info[cache_type].cache_line_size;
 
-               if (KFD_GC_VERSION(knode) == IP_VERSION(9, 4, 3))
+               if (KFD_GC_VERSION(knode) == IP_VERSION(9, 4, 3) ||
+                   KFD_GC_VERSION(knode) == IP_VERSION(9, 4, 4))
                        mode = adev->gmc.gmc_funcs->query_mem_partition_mode(adev);
                else
                        mode = UNKNOWN_MEMORY_PARTITION_MODE;
@@ -1908,7 +1909,8 @@ static void kfd_topology_set_capabilities(struct kfd_topology_device *dev)
                dev->node_props.debug_prop |= HSA_DBG_DISPATCH_INFO_ALWAYS_VALID;
 
        if (KFD_GC_VERSION(dev->gpu) < IP_VERSION(10, 0, 0)) {
-               if (KFD_GC_VERSION(dev->gpu) == IP_VERSION(9, 4, 3))
+               if (KFD_GC_VERSION(dev->gpu) == IP_VERSION(9, 4, 3) ||
+                   KFD_GC_VERSION(dev->gpu) == IP_VERSION(9, 4, 4))
                        dev->node_props.debug_prop |=
                                HSA_DBG_WATCH_ADDR_MASK_LO_BIT_GFX9_4_3 |
                                HSA_DBG_WATCH_ADDR_MASK_HI_BIT_GFX9_4_3;
index c11952a4389bcbe6488caa5f59bd8103d5212f1c..ec9058c80647a1dacc1c44ae07e7096d8ca43b4a 100644 (file)
@@ -2073,7 +2073,8 @@ static int pp_od_clk_voltage_attr_update(struct amdgpu_device *adev, struct amdg
        }
 
        /* Enable pp_od_clk_voltage node for gc 9.4.3 SRIOV/BM support */
-       if (gc_ver == IP_VERSION(9, 4, 3)) {
+       if (gc_ver == IP_VERSION(9, 4, 3) ||
+           gc_ver == IP_VERSION(9, 4, 4)) {
                if (amdgpu_sriov_vf(adev) && !amdgpu_sriov_is_pp_one_vf(adev))
                        *states = ATTR_STATE_UNSUPPORTED;
                return 0;
@@ -2151,7 +2152,8 @@ static int pp_dpm_clk_default_attr_update(struct amdgpu_device *adev, struct amd
                      gc_ver == IP_VERSION(11, 5, 0) ||
                      gc_ver == IP_VERSION(11, 0, 2) ||
                      gc_ver == IP_VERSION(11, 0, 3) ||
-                     gc_ver == IP_VERSION(9, 4, 3)))
+                     gc_ver == IP_VERSION(9, 4, 3) ||
+                     gc_ver == IP_VERSION(9, 4, 4)))
                        *states = ATTR_STATE_UNSUPPORTED;
        } else if (DEVICE_ATTR_IS(pp_dpm_vclk1)) {
                if (!((gc_ver == IP_VERSION(10, 3, 1) ||
@@ -2172,7 +2174,8 @@ static int pp_dpm_clk_default_attr_update(struct amdgpu_device *adev, struct amd
                      gc_ver == IP_VERSION(11, 5, 0) ||
                      gc_ver == IP_VERSION(11, 0, 2) ||
                      gc_ver == IP_VERSION(11, 0, 3) ||
-                     gc_ver == IP_VERSION(9, 4, 3)))
+                     gc_ver == IP_VERSION(9, 4, 3) ||
+                     gc_ver == IP_VERSION(9, 4, 4)))
                        *states = ATTR_STATE_UNSUPPORTED;
        } else if (DEVICE_ATTR_IS(pp_dpm_dclk1)) {
                if (!((gc_ver == IP_VERSION(10, 3, 1) ||
@@ -2182,7 +2185,8 @@ static int pp_dpm_clk_default_attr_update(struct amdgpu_device *adev, struct amd
                        *states = ATTR_STATE_UNSUPPORTED;
        } else if (DEVICE_ATTR_IS(pp_dpm_pcie)) {
                if (gc_ver == IP_VERSION(9, 4, 2) ||
-                   gc_ver == IP_VERSION(9, 4, 3))
+                   gc_ver == IP_VERSION(9, 4, 3) ||
+                   gc_ver == IP_VERSION(9, 4, 4))
                        *states = ATTR_STATE_UNSUPPORTED;
        }
 
@@ -2364,6 +2368,7 @@ static int default_attr_update(struct amdgpu_device *adev, struct amdgpu_device_
                case IP_VERSION(9, 4, 1):
                case IP_VERSION(9, 4, 2):
                case IP_VERSION(9, 4, 3):
+               case IP_VERSION(9, 4, 4):
                case IP_VERSION(10, 3, 0):
                case IP_VERSION(11, 0, 0):
                case IP_VERSION(11, 0, 1):
@@ -3509,7 +3514,7 @@ static umode_t hwmon_attributes_visible(struct kobject *kobj,
 
        /* Skip crit temp on APU */
        if ((((adev->flags & AMD_IS_APU) && (adev->family >= AMDGPU_FAMILY_CZ)) ||
-           (gc_ver == IP_VERSION(9, 4, 3))) &&
+           (gc_ver == IP_VERSION(9, 4, 3) || gc_ver == IP_VERSION(9, 4, 4))) &&
            (attr == &sensor_dev_attr_temp1_crit.dev_attr.attr ||
             attr == &sensor_dev_attr_temp1_crit_hyst.dev_attr.attr))
                return 0;
@@ -3545,7 +3550,7 @@ static umode_t hwmon_attributes_visible(struct kobject *kobj,
        /* not implemented yet for APUs other than GC 10.3.1 (vangogh) and 9.4.3 */
        if (((adev->family == AMDGPU_FAMILY_SI) ||
             ((adev->flags & AMD_IS_APU) && (gc_ver != IP_VERSION(10, 3, 1)) &&
-             (gc_ver != IP_VERSION(9, 4, 3)))) &&
+             (gc_ver != IP_VERSION(9, 4, 3) && gc_ver != IP_VERSION(9, 4, 4)))) &&
            (attr == &sensor_dev_attr_power1_cap_max.dev_attr.attr ||
             attr == &sensor_dev_attr_power1_cap_min.dev_attr.attr ||
             attr == &sensor_dev_attr_power1_cap.dev_attr.attr ||
@@ -3583,13 +3588,16 @@ static umode_t hwmon_attributes_visible(struct kobject *kobj,
 
        if ((adev->family == AMDGPU_FAMILY_SI ||        /* not implemented yet */
             adev->family == AMDGPU_FAMILY_KV ||        /* not implemented yet */
-            (gc_ver == IP_VERSION(9, 4, 3))) &&
+            (gc_ver == IP_VERSION(9, 4, 3) ||
+             gc_ver == IP_VERSION(9, 4, 4))) &&
            (attr == &sensor_dev_attr_in0_input.dev_attr.attr ||
             attr == &sensor_dev_attr_in0_label.dev_attr.attr))
                return 0;
 
        /* only APUs other than gc 9,4,3 have vddnb */
-       if ((!(adev->flags & AMD_IS_APU) || (gc_ver == IP_VERSION(9, 4, 3))) &&
+       if ((!(adev->flags & AMD_IS_APU) ||
+            (gc_ver == IP_VERSION(9, 4, 3) ||
+             gc_ver == IP_VERSION(9, 4, 4))) &&
            (attr == &sensor_dev_attr_in1_input.dev_attr.attr ||
             attr == &sensor_dev_attr_in1_label.dev_attr.attr))
                return 0;
@@ -3601,7 +3609,7 @@ static umode_t hwmon_attributes_visible(struct kobject *kobj,
                return 0;
 
        if (((adev->flags & AMD_IS_APU) || gc_ver < IP_VERSION(9, 0, 0)) &&
-           (gc_ver != IP_VERSION(9, 4, 3)) &&
+           (gc_ver != IP_VERSION(9, 4, 3) && gc_ver != IP_VERSION(9, 4, 4)) &&
            (attr == &sensor_dev_attr_temp2_input.dev_attr.attr ||
             attr == &sensor_dev_attr_temp2_label.dev_attr.attr ||
             attr == &sensor_dev_attr_temp2_crit.dev_attr.attr ||
@@ -3611,7 +3619,8 @@ static umode_t hwmon_attributes_visible(struct kobject *kobj,
                return 0;
 
        /* hotspot temperature for gc 9,4,3*/
-       if (gc_ver == IP_VERSION(9, 4, 3)) {
+       if (gc_ver == IP_VERSION(9, 4, 3) ||
+           gc_ver == IP_VERSION(9, 4, 4)) {
                if (attr == &sensor_dev_attr_temp1_input.dev_attr.attr ||
                    attr == &sensor_dev_attr_temp1_emergency.dev_attr.attr ||
                    attr == &sensor_dev_attr_temp1_label.dev_attr.attr)