typedef struct {
        unsigned int __softirq_pending;
+       unsigned int timer_irqs;
+       unsigned int pmu_irqs;
+       unsigned int mce_exceptions;
 } ____cacheline_aligned irq_cpustat_t;
 
 DECLARE_PER_CPU_SHARED_ALIGNED(irq_cpustat_t, irq_stat);
        printk(KERN_CRIT "unexpected IRQ trap at vector %02x\n", irq);
 }
 
+extern u64 arch_irq_stat_cpu(unsigned int cpu);
+#define arch_irq_stat_cpu      arch_irq_stat_cpu
+
+extern u64 arch_irq_stat(void);
+#define arch_irq_stat          arch_irq_stat
+
 #endif /* _ASM_POWERPC_HARDIRQ_H */
 
        }
 #endif /* CONFIG_PPC32 && CONFIG_TAU_INT */
 
+       seq_printf(p, "%*s: ", prec, "LOC");
+       for_each_online_cpu(j)
+               seq_printf(p, "%10u ", per_cpu(irq_stat, j).timer_irqs);
+        seq_printf(p, "  Local timer interrupts\n");
+
+       seq_printf(p, "%*s: ", prec, "CNT");
+       for_each_online_cpu(j)
+               seq_printf(p, "%10u ", per_cpu(irq_stat, j).pmu_irqs);
+       seq_printf(p, "  Performance monitoring interrupts\n");
+
+       seq_printf(p, "%*s: ", prec, "MCE");
+       for_each_online_cpu(j)
+               seq_printf(p, "%10u ", per_cpu(irq_stat, j).mce_exceptions);
+       seq_printf(p, "  Machine check exceptions\n");
+
        seq_printf(p, "%*s: %10u\n", prec, "BAD", ppc_spurious_interrupts);
 
        return 0;
        return 0;
 }
 
+/*
+ * /proc/stat helpers
+ */
+u64 arch_irq_stat_cpu(unsigned int cpu)
+{
+       u64 sum = per_cpu(irq_stat, cpu).timer_irqs;
+
+       sum += per_cpu(irq_stat, cpu).pmu_irqs;
+       sum += per_cpu(irq_stat, cpu).mce_exceptions;
+
+       return sum;
+}
+
+u64 arch_irq_stat(void)
+{
+       u64 sum = ppc_spurious_interrupts;
+
+       return sum;
+}
+
 #ifdef CONFIG_HOTPLUG_CPU
 void fixup_irqs(cpumask_t map)
 {
 
 
        trace_timer_interrupt_entry(regs);
 
+       __get_cpu_var(irq_stat).timer_irqs++;
+
        /* Ensure a positive value is written to the decrementer, or else
         * some CPUs will continuue to take decrementer exceptions */
        set_dec(DECREMENTER_MAX);
 
 {
        int recover = 0;
 
+       __get_cpu_var(irq_stat).mce_exceptions++;
+
        /* See if any machine dependent calls. In theory, we would want
         * to call the CPU first, and call the ppc_md. one if the CPU
         * one returns a positive number. However there is existing code
 
 void performance_monitor_exception(struct pt_regs *regs)
 {
+       __get_cpu_var(irq_stat).pmu_irqs++;
+
        perf_irq(regs);
 }