};
 
 struct kvm_vcpu;
+extern struct kmem_cache *kvm_vcpu_cache;
 
 /*
  * x86 supports 3 paging modes (4-level 64-bit, 3-level 64-bit, and 2-level
 int kvm_vcpu_init(struct kvm_vcpu *vcpu, struct kvm *kvm, unsigned id);
 void kvm_vcpu_uninit(struct kvm_vcpu *vcpu);
 
-int kvm_init_arch(struct kvm_arch_ops *ops, struct module *module);
+int kvm_init_arch(struct kvm_arch_ops *ops, unsigned int vcpu_size,
+                 struct module *module);
 void kvm_exit_arch(void);
 
 int kvm_mmu_module_init(void);
 
 static cpumask_t cpus_hardware_enabled;
 
 struct kvm_arch_ops *kvm_arch_ops;
+struct kmem_cache *kvm_vcpu_cache;
+EXPORT_SYMBOL_GPL(kvm_vcpu_cache);
 
 static __read_mostly struct preempt_ops kvm_preempt_ops;
 
        kvm_arch_ops->vcpu_put(vcpu);
 }
 
-int kvm_init_arch(struct kvm_arch_ops *ops, struct module *module)
+int kvm_init_arch(struct kvm_arch_ops *ops, unsigned int vcpu_size,
+                 struct module *module)
 {
        int r;
 
        if (r)
                goto out_free_3;
 
+       /* A kmem cache lets us meet the alignment requirements of fx_save. */
+       kvm_vcpu_cache = kmem_cache_create("kvm_vcpu", vcpu_size,
+                                          __alignof__(struct kvm_vcpu), 0, 0);
+       if (!kvm_vcpu_cache) {
+               r = -ENOMEM;
+               goto out_free_4;
+       }
+
        kvm_chardev_ops.owner = module;
 
        r = misc_register(&kvm_dev);
        return r;
 
 out_free:
+       kmem_cache_destroy(kvm_vcpu_cache);
+out_free_4:
        sysdev_unregister(&kvm_sysdev);
 out_free_3:
        sysdev_class_unregister(&kvm_sysdev_class);
 void kvm_exit_arch(void)
 {
        misc_deregister(&kvm_dev);
+       kmem_cache_destroy(kvm_vcpu_cache);
        sysdev_unregister(&kvm_sysdev);
        sysdev_class_unregister(&kvm_sysdev_class);
        unregister_reboot_notifier(&kvm_reboot_notifier);
 
        struct page *page;
        int err;
 
-       svm = kzalloc(sizeof *svm, GFP_KERNEL);
+       svm = kmem_cache_zalloc(kvm_vcpu_cache, GFP_KERNEL);
        if (!svm) {
                err = -ENOMEM;
                goto out;
 
 static int __init svm_init(void)
 {
-       return kvm_init_arch(&svm_arch_ops, THIS_MODULE);
+       return kvm_init_arch(&svm_arch_ops, sizeof(struct vcpu_svm),
+                             THIS_MODULE);
 }
 
 static void __exit svm_exit(void)
 
 static struct kvm_vcpu *vmx_create_vcpu(struct kvm *kvm, unsigned int id)
 {
        int err;
-       struct vcpu_vmx *vmx = kzalloc(sizeof(*vmx), GFP_KERNEL);
+       struct vcpu_vmx *vmx = kmem_cache_zalloc(kvm_vcpu_cache, GFP_KERNEL);
        int cpu;
 
        if (!vmx)
        memset(iova, 0xff, PAGE_SIZE);
        kunmap(vmx_io_bitmap_b);
 
-       r = kvm_init_arch(&vmx_arch_ops, THIS_MODULE);
+       r = kvm_init_arch(&vmx_arch_ops, sizeof(struct vcpu_vmx), THIS_MODULE);
        if (r)
                goto out1;