Pull x86 cdso updates from Peter Anvin:
 "Vdso cleanups and improvements largely from Andy Lutomirski.  This
  makes the vdso a lot less ''special''"
* 'x86/vdso' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/tip:
  x86/vdso, build: Make LE access macros clearer, host-safe
  x86/vdso, build: Fix cross-compilation from big-endian architectures
  x86/vdso, build: When vdso2c fails, unlink the output
  x86, vdso: Fix an OOPS accessing the HPET mapping w/o an HPET
  x86, mm: Replace arch_vma_name with vm_ops->name for vsyscalls
  x86, mm: Improve _install_special_mapping and fix x86 vdso naming
  mm, fs: Add vm_ops->name as an alternative to arch_vma_name
  x86, vdso: Fix an OOPS accessing the HPET mapping w/o an HPET
  x86, vdso: Remove vestiges of VDSO_PRELINK and some outdated comments
  x86, vdso: Move the vvar and hpet mappings next to the 64-bit vDSO
  x86, vdso: Move the 32-bit vdso special pages after the text
  x86, vdso: Reimplement vdso.so preparation in build-time C
  x86, vdso: Move syscall and sysenter setup into kernel/cpu/common.c
  x86, vdso: Clean up 32-bit vs 64-bit vdso params
  x86, mm: Ensure correct alignment of the fixmap
12 files changed:
   */
  int in_gate_area_no_mm(unsigned long addr)
  {
-       return (addr >= VSYSCALL_START) && (addr < VSYSCALL_END);
- }
- 
- const char *arch_vma_name(struct vm_area_struct *vma)
- {
-       if (vma->vm_mm && vma->vm_start == (long)vma->vm_mm->context.vdso)
-               return "[vdso]";
-       if (vma == &gate_vma)
-               return "[vsyscall]";
-       return NULL;
+       return (addr & PAGE_MASK) == VSYSCALL_ADDR;
  }
  
 -#ifdef CONFIG_X86_UV
 -unsigned long memory_block_size_bytes(void)
 +static unsigned long probe_memory_block_size(void)
  {
 +      /* start from 2g */
 +      unsigned long bz = 1UL<<31;
 +
 +#ifdef CONFIG_X86_UV
        if (is_uv_system()) {
                printk(KERN_INFO "UV: memory block size 2GB\n");
                return 2UL * 1024 * 1024 * 1024;
 
                            unsigned long addr, unsigned long len,
                            unsigned long vm_flags, struct page **pages)
  {
-       struct vm_area_struct *vma = _install_special_mapping(mm,
-                           addr, len, vm_flags, pages);
+       struct vm_area_struct *vma = __install_special_mapping(
+               mm, addr, len, vm_flags, &legacy_special_mapping_vmops,
+               (void *)pages);
  
 -      if (IS_ERR(vma))
 -              return PTR_ERR(vma);
 -      return 0;
 +      return PTR_ERR_OR_ZERO(vma);
  }
  
  static DEFINE_MUTEX(mm_all_locks_mutex);