int tcf_classify(struct sk_buff *skb, const struct tcf_proto *tp,
                 struct tcf_result *res, bool compat_mode);
-int tcf_classify_ingress(struct sk_buff *skb, const struct tcf_proto *tp,
-                        struct tcf_result *res, bool compat_mode);
+int tcf_classify_ingress(struct sk_buff *skb,
+                        const struct tcf_block *ingress_block,
+                        const struct tcf_proto *tp, struct tcf_result *res,
+                        bool compat_mode);
 
 #else
 static inline bool tcf_block_shared(struct tcf_block *block)
 }
 
 static inline int tcf_classify_ingress(struct sk_buff *skb,
+                                      const struct tcf_block *ingress_block,
                                       const struct tcf_proto *tp,
                                       struct tcf_result *res, bool compat_mode)
 {
 
  */
 struct mini_Qdisc {
        struct tcf_proto *filter_list;
+       struct tcf_block *block;
        struct gnet_stats_basic_cpu __percpu *cpu_bstats;
        struct gnet_stats_queue __percpu *cpu_qstats;
        struct rcu_head rcu;
                          struct tcf_proto *tp_head);
 void mini_qdisc_pair_init(struct mini_Qdisc_pair *miniqp, struct Qdisc *qdisc,
                          struct mini_Qdisc __rcu **p_miniq);
+void mini_qdisc_pair_block_init(struct mini_Qdisc_pair *miniqp,
+                               struct tcf_block *block);
 
 static inline int skb_tc_reinsert(struct sk_buff *skb, struct tcf_result *res)
 {
 
        skb->tc_at_ingress = 1;
        mini_qdisc_bstats_cpu_update(miniq, skb);
 
-       switch (tcf_classify_ingress(skb, miniq->filter_list, &cl_res,
-                                    false)) {
+       switch (tcf_classify_ingress(skb, miniq->block, miniq->filter_list,
+                                    &cl_res, false)) {
        case TC_ACT_OK:
        case TC_ACT_RECLASSIFY:
                skb->tc_index = TC_H_MIN(cl_res.classid);
 
 }
 EXPORT_SYMBOL(tcf_classify);
 
-int tcf_classify_ingress(struct sk_buff *skb, const struct tcf_proto *tp,
+int tcf_classify_ingress(struct sk_buff *skb,
+                        const struct tcf_block *ingress_block,
+                        const struct tcf_proto *tp,
                         struct tcf_result *res, bool compat_mode)
 {
 #if !IS_ENABLED(CONFIG_NET_TC_SKB_EXT)
 
 }
 EXPORT_SYMBOL(mini_qdisc_pair_swap);
 
+void mini_qdisc_pair_block_init(struct mini_Qdisc_pair *miniqp,
+                               struct tcf_block *block)
+{
+       miniqp->miniq1.block = block;
+       miniqp->miniq2.block = block;
+}
+EXPORT_SYMBOL(mini_qdisc_pair_block_init);
+
 void mini_qdisc_pair_init(struct mini_Qdisc_pair *miniqp, struct Qdisc *qdisc,
                          struct mini_Qdisc __rcu **p_miniq)
 {
 
 {
        struct ingress_sched_data *q = qdisc_priv(sch);
        struct net_device *dev = qdisc_dev(sch);
+       int err;
 
        net_inc_ingress_queue();
 
        q->block_info.chain_head_change = clsact_chain_head_change;
        q->block_info.chain_head_change_priv = &q->miniqp;
 
-       return tcf_block_get_ext(&q->block, sch, &q->block_info, extack);
+       err = tcf_block_get_ext(&q->block, sch, &q->block_info, extack);
+       if (err)
+               return err;
+
+       mini_qdisc_pair_block_init(&q->miniqp, q->block);
+
+       return 0;
 }
 
 static void ingress_destroy(struct Qdisc *sch)
        if (err)
                return err;
 
+       mini_qdisc_pair_block_init(&q->miniqp_ingress, q->ingress_block);
+
        mini_qdisc_pair_init(&q->miniqp_egress, sch, &dev->miniq_egress);
 
        q->egress_block_info.binder_type = FLOW_BLOCK_BINDER_TYPE_CLSACT_EGRESS;