loop:
        for (j = 0; j < PUSH_CNT; j++) {
                insn[i++] = BPF_LD_ABS(BPF_B, 0);
-               insn[i] = BPF_JMP_IMM(BPF_JNE, BPF_REG_0, 0x34, len - i - 2);
+               /* jump to error label */
+               insn[i] = BPF_JMP32_IMM(BPF_JNE, BPF_REG_0, 0x34, len - i - 3);
                i++;
                insn[i++] = BPF_MOV64_REG(BPF_REG_1, BPF_REG_6);
                insn[i++] = BPF_MOV64_IMM(BPF_REG_2, 1);
                insn[i++] = BPF_MOV64_IMM(BPF_REG_3, 2);
                insn[i++] = BPF_RAW_INSN(BPF_JMP | BPF_CALL, 0, 0, 0,
                                         BPF_FUNC_skb_vlan_push),
-               insn[i] = BPF_JMP_IMM(BPF_JNE, BPF_REG_0, 0, len - i - 2);
+               insn[i] = BPF_JMP_IMM(BPF_JNE, BPF_REG_0, 0, len - i - 3);
                i++;
        }
 
        for (j = 0; j < PUSH_CNT; j++) {
                insn[i++] = BPF_LD_ABS(BPF_B, 0);
-               insn[i] = BPF_JMP_IMM(BPF_JNE, BPF_REG_0, 0x34, len - i - 2);
+               insn[i] = BPF_JMP32_IMM(BPF_JNE, BPF_REG_0, 0x34, len - i - 3);
                i++;
                insn[i++] = BPF_MOV64_REG(BPF_REG_1, BPF_REG_6);
                insn[i++] = BPF_RAW_INSN(BPF_JMP | BPF_CALL, 0, 0, 0,
                                         BPF_FUNC_skb_vlan_pop),
-               insn[i] = BPF_JMP_IMM(BPF_JNE, BPF_REG_0, 0, len - i - 2);
+               insn[i] = BPF_JMP_IMM(BPF_JNE, BPF_REG_0, 0, len - i - 3);
                i++;
        }
        if (++k < 5)
                goto loop;
 
-       for (; i < len - 1; i++)
-               insn[i] = BPF_ALU32_IMM(BPF_MOV, BPF_REG_0, 0xbef);
+       for (; i < len - 3; i++)
+               insn[i] = BPF_ALU64_IMM(BPF_MOV, BPF_REG_0, 0xbef);
+       insn[len - 3] = BPF_JMP_A(1);
+       /* error label */
+       insn[len - 2] = BPF_MOV32_IMM(BPF_REG_0, 0);
        insn[len - 1] = BPF_EXIT_INSN();
        self->prog_len = len;
 }
 static void bpf_fill_jump_around_ld_abs(struct bpf_test *self)
 {
        struct bpf_insn *insn = self->fill_insns;
-       /* jump range is limited to 16 bit. every ld_abs is replaced by 6 insns */
-       unsigned int len = (1 << 15) / 6;
+       /* jump range is limited to 16 bit. every ld_abs is replaced by 6 insns,
+        * but on arches like arm, ppc etc, there will be one BPF_ZEXT inserted
+        * to extend the error value of the inlined ld_abs sequence which then
+        * contains 7 insns. so, set the dividend to 7 so the testcase could
+        * work on all arches.
+        */
+       unsigned int len = (1 << 15) / 7;
        int i = 0;
 
        insn[i++] = BPF_MOV64_REG(BPF_REG_6, BPF_REG_1);
         * within 1m limit add MAX_TEST_INSNS - MAX_JMP_SEQ - 1 MOVs and 1 EXIT
         */
        while (i < MAX_TEST_INSNS - MAX_JMP_SEQ - 1)
-               insn[i++] = BPF_ALU32_IMM(BPF_MOV, BPF_REG_0, 42);
+               insn[i++] = BPF_ALU64_IMM(BPF_MOV, BPF_REG_0, 42);
        insn[i] = BPF_EXIT_INSN();
        self->prog_len = i + 1;
        self->retval = 42;
         * within 1m limit add MAX_TEST_INSNS - MAX_JMP_SEQ - 1 MOVs and 1 EXIT
         */
        while (i < MAX_TEST_INSNS - MAX_JMP_SEQ - 1)
-               insn[i++] = BPF_ALU32_IMM(BPF_MOV, BPF_REG_0, 42);
+               insn[i++] = BPF_ALU64_IMM(BPF_MOV, BPF_REG_0, 42);
        insn[i] = BPF_EXIT_INSN();
        self->prog_len = i + 1;
        self->retval = 42;