int xive_native_populate_irq_data(u32 hw_irq,
                                  struct xive_irq_data *data);
 void xive_cleanup_irq_data(struct xive_irq_data *xd);
+void xive_irq_free_data(unsigned int virq);
 void xive_native_free_irq(u32 irq);
 int xive_native_configure_irq(u32 hw_irq, u32 target, u8 prio, u32 sw_irq);
 
 
        return rtas_prepare_msi_irqs(pdev, nvec, type, arg);
 }
 
+/*
+ * ->msi_free() is called before irq_domain_free_irqs_top() when the
+ * handler data is still available. Use that to clear the XIVE
+ * controller data.
+ */
+static void pseries_msi_ops_msi_free(struct irq_domain *domain,
+                                    struct msi_domain_info *info,
+                                    unsigned int irq)
+{
+       if (xive_enabled())
+               xive_irq_free_data(irq);
+}
+
 /*
  * RTAS can not disable one MSI at a time. It's all or nothing. Do it
  * at the end after all IRQs have been freed.
 
 static struct msi_domain_ops pseries_pci_msi_domain_ops = {
        .msi_prepare    = pseries_msi_ops_prepare,
+       .msi_free       = pseries_msi_ops_msi_free,
        .domain_free_irqs = pseries_msi_domain_free_irqs,
 };
 
 
        pr_debug("%s bridge %pOF %d #%d\n", __func__, phb->dn, virq, nr_irqs);
 
-       irq_domain_free_irqs_parent(domain, virq, nr_irqs);
+       /* XIVE domain data is cleared through ->msi_free() */
 }
 
 static const struct irq_domain_ops pseries_irq_domain_ops = {
 
 
 void xive_cleanup_irq_data(struct xive_irq_data *xd)
 {
+       pr_debug("%s for HW %x\n", __func__, xd->hw_irq);
+
        if (xd->eoi_mmio) {
                iounmap(xd->eoi_mmio);
                if (xd->eoi_mmio == xd->trig_mmio)
        return 0;
 }
 
-static void xive_irq_free_data(unsigned int virq)
+void xive_irq_free_data(unsigned int virq)
 {
        struct xive_irq_data *xd = irq_get_handler_data(virq);
 
        xive_cleanup_irq_data(xd);
        kfree(xd);
 }
+EXPORT_SYMBOL_GPL(xive_irq_free_data);
 
 #ifdef CONFIG_SMP