struct kvm *kvm = vcpu->kvm;
        struct kvm_memslots *slots = kvm_memslots(kvm);
        struct kvm_memory_slot *slot;
+       struct page *refcounted_page;
        unsigned long mmu_seq;
        kvm_pfn_t pfn;
+       bool writable;
 
        /* Defer reload until vmcs01 is the current VMCS. */
        if (is_guest_mode(vcpu)) {
         * controls the APIC-access page memslot, and only deletes the memslot
         * if APICv is permanently inhibited, i.e. the memslot won't reappear.
         */
-       pfn = gfn_to_pfn_memslot(slot, gfn);
+       pfn = __kvm_faultin_pfn(slot, gfn, FOLL_WRITE, &writable, &refcounted_page);
        if (is_error_noslot_pfn(pfn))
                return;
 
                vmcs_write64(APIC_ACCESS_ADDR, pfn_to_hpa(pfn));
 
        /*
-        * Do not pin apic access page in memory, the MMU notifier
-        * will call us again if it is migrated or swapped out.
+        * Do not pin the APIC access page in memory so that it can be freely
+        * migrated, the MMU notifier will call us again if it is migrated or
+        * swapped out.  KVM backs the memslot with anonymous memory, the pfn
+        * should always point at a refcounted page (if the pfn is valid).
         */
-       kvm_release_pfn_clean(pfn);
+       if (!WARN_ON_ONCE(!refcounted_page))
+               kvm_release_page_clean(refcounted_page);
 
        /*
         * No need for a manual TLB flush at this point, KVM has already done a