void kvm_release_pfn_dirty(kvm_pfn_t pfn);
 void kvm_set_pfn_dirty(kvm_pfn_t pfn);
 void kvm_set_pfn_accessed(kvm_pfn_t pfn);
-void kvm_get_pfn(kvm_pfn_t pfn);
 
 void kvm_release_pfn(kvm_pfn_t pfn, bool dirty, struct gfn_to_pfn_cache *cache);
 int kvm_read_guest_page(struct kvm *kvm, gfn_t gfn, void *data, int offset,
 
         * Get a reference here because callers of *hva_to_pfn* and
         * *gfn_to_pfn* ultimately call kvm_release_pfn_clean on the
         * returned pfn.  This is only needed if the VMA has VM_MIXEDMAP
-        * set, but the kvm_get_pfn/kvm_release_pfn_clean pair will
+        * set, but the kvm_try_get_pfn/kvm_release_pfn_clean pair will
         * simply do nothing for reserved pfns.
         *
         * Whoever called remap_pfn_range is also going to call e.g.
 }
 EXPORT_SYMBOL_GPL(kvm_set_pfn_accessed);
 
-void kvm_get_pfn(kvm_pfn_t pfn)
-{
-       if (!kvm_is_reserved_pfn(pfn))
-               get_page(pfn_to_page(pfn));
-}
-EXPORT_SYMBOL_GPL(kvm_get_pfn);
-
 static int next_segment(unsigned long len, int offset)
 {
        if (len > PAGE_SIZE - offset)