u32 full;
 };
 
-struct _cpuid4_info_regs {
+struct _cpuid4_info {
        union _cpuid4_leaf_eax eax;
        union _cpuid4_leaf_ebx ebx;
        union _cpuid4_leaf_ecx ecx;
                (ebx->split.ways_of_associativity + 1) - 1;
 }
 
-static int cpuid4_info_fill_done(struct _cpuid4_info_regs *id4, union _cpuid4_leaf_eax eax,
+static int cpuid4_info_fill_done(struct _cpuid4_info *id4, union _cpuid4_leaf_eax eax,
                                 union _cpuid4_leaf_ebx ebx, union _cpuid4_leaf_ecx ecx)
 {
        if (eax.split.type == CTYPE_NULL)
        return 0;
 }
 
-static int amd_fill_cpuid4_info(int index, struct _cpuid4_info_regs *id4)
+static int amd_fill_cpuid4_info(int index, struct _cpuid4_info *id4)
 {
        union _cpuid4_leaf_eax eax;
        union _cpuid4_leaf_ebx ebx;
        return cpuid4_info_fill_done(id4, eax, ebx, ecx);
 }
 
-static int intel_fill_cpuid4_info(int index, struct _cpuid4_info_regs *id4)
+static int intel_fill_cpuid4_info(int index, struct _cpuid4_info *id4)
 {
        union _cpuid4_leaf_eax eax;
        union _cpuid4_leaf_ebx ebx;
        return cpuid4_info_fill_done(id4, eax, ebx, ecx);
 }
 
-static int fill_cpuid4_info(int index, struct _cpuid4_info_regs *id4)
+static int fill_cpuid4_info(int index, struct _cpuid4_info *id4)
 {
        u8 cpu_vendor = boot_cpu_data.x86_vendor;
 
                 * parameters cpuid leaf to find the cache details
                 */
                for (i = 0; i < ci->num_leaves; i++) {
-                       struct _cpuid4_info_regs id4 = {};
+                       struct _cpuid4_info id4 = {};
                        int retval;
 
                        retval = intel_fill_cpuid4_info(i, &id4);
 }
 
 static int __cache_amd_cpumap_setup(unsigned int cpu, int index,
-                                   const struct _cpuid4_info_regs *id4)
+                                   const struct _cpuid4_info *id4)
 {
        struct cpu_cacheinfo *this_cpu_ci;
        struct cacheinfo *ci;
 }
 
 static void __cache_cpumap_setup(unsigned int cpu, int index,
-                                const struct _cpuid4_info_regs *id4)
+                                const struct _cpuid4_info *id4)
 {
        struct cpu_cacheinfo *this_cpu_ci = get_cpu_cacheinfo(cpu);
        struct cacheinfo *ci, *sibling_ci;
                }
 }
 
-static void ci_info_init(struct cacheinfo *ci, const struct _cpuid4_info_regs *id4,
+static void ci_info_init(struct cacheinfo *ci, const struct _cpuid4_info *id4,
                         struct amd_northbridge *nb)
 {
        ci->id                          = id4->id;
  * ECX as cache index. Then right shift apicid by the number's order to get
  * cache id for this cache node.
  */
-static void get_cache_id(int cpu, struct _cpuid4_info_regs *id4)
+static void get_cache_id(int cpu, struct _cpuid4_info *id4)
 {
        struct cpuinfo_x86 *c = &cpu_data(cpu);
        unsigned long num_threads_sharing;
        struct cpu_cacheinfo *this_cpu_ci = get_cpu_cacheinfo(cpu);
        struct cacheinfo *ci = this_cpu_ci->info_list;
        u8 cpu_vendor = boot_cpu_data.x86_vendor;
-       struct _cpuid4_info_regs id4 = {};
        struct amd_northbridge *nb = NULL;
+       struct _cpuid4_info id4 = {};
        int idx, ret;
 
        for (idx = 0; idx < this_cpu_ci->num_leaves; idx++) {