/* If current delay is less than half of target, and
         * if drop prob is low already, disable early_drop
         */
-       if ((q->vars.qdelay < q->params.target / 2)
-           && (q->vars.prob < MAX_PROB / 5))
+       if ((q->vars.qdelay < q->params.target / 2) &&
+           (q->vars.prob < MAX_PROB / 5))
                return false;
 
        /* If we have fewer than 2 mtu-sized packets, disable drop_early,
 
        /* tupdate is in jiffies */
        if (tb[TCA_PIE_TUPDATE])
-               q->params.tupdate = usecs_to_jiffies(nla_get_u32(tb[TCA_PIE_TUPDATE]));
+               q->params.tupdate =
+                       usecs_to_jiffies(nla_get_u32(tb[TCA_PIE_TUPDATE]));
 
        if (tb[TCA_PIE_LIMIT]) {
                u32 limit = nla_get_u32(tb[TCA_PIE_LIMIT]);
 
 static void pie_process_dequeue(struct Qdisc *sch, struct sk_buff *skb)
 {
-
        struct pie_sched_data *q = qdisc_priv(sch);
        int qlen = sch->qstats.backlog; /* current queue size in bytes */
 
                         * dq_count to 0 to re-enter the if block when the next
                         * packet is dequeued
                         */
-                       if (qlen < QUEUE_THRESHOLD)
+                       if (qlen < QUEUE_THRESHOLD) {
                                q->vars.dq_count = DQCOUNT_INVALID;
-                       else {
+                       } else {
                                q->vars.dq_count = 0;
                                q->vars.dq_tstamp = psched_get_time();
                        }
        oldprob = q->vars.prob;
 
        /* to ensure we increase probability in steps of no more than 2% */
-       if (delta > (s32) (MAX_PROB / (100 / 2)) &&
+       if (delta > (s32)(MAX_PROB / (100 / 2)) &&
            q->vars.prob >= MAX_PROB / 10)
                delta = (MAX_PROB / 100) * 2;
 
         * delay is 0 for 2 consecutive Tupdate periods.
         */
 
-       if ((qdelay == 0) && (qdelay_old == 0) && update_prob)
+       if (qdelay == 0 && qdelay_old == 0 && update_prob)
                q->vars.prob = (q->vars.prob * 98) / 100;
 
        q->vars.qdelay = qdelay;
         */
        if ((q->vars.qdelay < q->params.target / 2) &&
            (q->vars.qdelay_old < q->params.target / 2) &&
-           (q->vars.prob == 0) &&
-           (q->vars.avg_dq_rate > 0))
+           q->vars.prob == 0 &&
+           q->vars.avg_dq_rate > 0)
                pie_vars_init(&q->vars);
 }
 
        if (q->params.tupdate)
                mod_timer(&q->adapt_timer, jiffies + q->params.tupdate);
        spin_unlock(root_lock);
-
 }
 
 static int pie_init(struct Qdisc *sch, struct nlattr *opt,
        struct nlattr *opts;
 
        opts = nla_nest_start(skb, TCA_OPTIONS);
-       if (opts == NULL)
+       if (!opts)
                goto nla_put_failure;
 
        /* convert target from pschedtime to us */
        if (nla_put_u32(skb, TCA_PIE_TARGET,
-                       ((u32) PSCHED_TICKS2NS(q->params.target)) /
+                       ((u32)PSCHED_TICKS2NS(q->params.target)) /
                        NSEC_PER_USEC) ||
            nla_put_u32(skb, TCA_PIE_LIMIT, sch->limit) ||
-           nla_put_u32(skb, TCA_PIE_TUPDATE, jiffies_to_usecs(q->params.tupdate)) ||
+           nla_put_u32(skb, TCA_PIE_TUPDATE,
+                       jiffies_to_usecs(q->params.tupdate)) ||
            nla_put_u32(skb, TCA_PIE_ALPHA, q->params.alpha) ||
            nla_put_u32(skb, TCA_PIE_BETA, q->params.beta) ||
            nla_put_u32(skb, TCA_PIE_ECN, q->params.ecn) ||
 nla_put_failure:
        nla_nest_cancel(skb, opts);
        return -1;
-
 }
 
 static int pie_dump_stats(struct Qdisc *sch, struct gnet_dump *d)
        struct pie_sched_data *q = qdisc_priv(sch);
        struct tc_pie_xstats st = {
                .prob           = q->vars.prob,
-               .delay          = ((u32) PSCHED_TICKS2NS(q->vars.qdelay)) /
+               .delay          = ((u32)PSCHED_TICKS2NS(q->vars.qdelay)) /
                                   NSEC_PER_USEC,
                /* unscale and return dq_rate in bytes per sec */
                .avg_dq_rate    = q->vars.avg_dq_rate *
 
 static struct sk_buff *pie_qdisc_dequeue(struct Qdisc *sch)
 {
-       struct sk_buff *skb;
-       skb = qdisc_dequeue_head(sch);
+       struct sk_buff *skb = qdisc_dequeue_head(sch);
 
        if (!skb)
                return NULL;
 static void pie_reset(struct Qdisc *sch)
 {
        struct pie_sched_data *q = qdisc_priv(sch);
+
        qdisc_reset_queue(sch);
        pie_vars_init(&q->vars);
 }
 static void pie_destroy(struct Qdisc *sch)
 {
        struct pie_sched_data *q = qdisc_priv(sch);
+
        q->params.tupdate = 0;
        del_timer_sync(&q->adapt_timer);
 }