As suggested by Peter Anvin.
Signed-off-by: Andy Shevchenko <andriy.shevchenko@linux.intel.com>
Cc: H . Peter Anvin <hpa@linux.intel.com>
Signed-off-by: Ingo Molnar <mingo@kernel.org>
        testl $3, %esi          # Check alignment.
        jz 2f                   # Jump if alignment is ok.
        testl $1, %esi          # Check alignment.
-       jz 10f                  # Jump if alignment is boundary of 2bytes.
+       jz 10f                  # Jump if alignment is boundary of 2 bytes.
 
        # buf is odd
        dec %ecx
 
        char *ret = dest;
 
        __asm__ __volatile__(
-               /* Handle more 16bytes in loop */
+               /* Handle more 16 bytes in loop */
                "cmp $0x10, %0\n\t"
                "jb     1f\n\t"
 
 
        subq $0x20,     %rdx
        /*
         * At most 3 ALU operations in one cycle,
-        * so append NOPS in the same 16bytes trunk.
+        * so append NOPS in the same 16 bytes trunk.
         */
        .p2align 4
 .Lcopy_backward_loop:
 
 ENTRY(memmove)
        CFI_STARTPROC
 
-       /* Handle more 32bytes in loop */
+       /* Handle more 32 bytes in loop */
        mov %rdi, %rax
        cmp $0x20, %rdx
        jb      1f