* We cannot do this on 32 bits because at the very least some
         * 486 CPUs did not behave this way.
         */
-       long tmp = -1;
        asm("bsfl %1,%0"
            : "=r" (r)
-           : "rm" (x), "0" (tmp));
+           : "rm" (x), "0" (-1));
 #elif defined(CONFIG_X86_CMOV)
        asm("bsfl %1,%0\n\t"
            "cmovzl %2,%0"
         * We cannot do this on 32 bits because at the very least some
         * 486 CPUs did not behave this way.
         */
-       long tmp = -1;
        asm("bsrl %1,%0"
            : "=r" (r)
-           : "rm" (x), "0" (tmp));
+           : "rm" (x), "0" (-1));
 #elif defined(CONFIG_X86_CMOV)
        asm("bsrl %1,%0\n\t"
            "cmovzl %2,%0"
 #ifdef CONFIG_X86_64
 static __always_inline int fls64(__u64 x)
 {
-       long bitpos = -1;
+       int bitpos = -1;
        /*
         * AMD64 says BSRQ won't clobber the dest reg if x==0; Intel64 says the
         * dest reg is undefined if x==0, but their CPU architect says its
         * value is written to set it to the same as before.
         */
-       asm("bsrq %1,%0"
+       asm("bsrq %1,%q0"
            : "+r" (bitpos)
            : "rm" (x));
        return bitpos + 1;