ctrl = FIELD_PREP(MT_DMA_CTL_SD_LEN0, buf[0].len);
 
-       if ((q->flags & MT_QFLAG_WED) &&
-           FIELD_GET(MT_QFLAG_WED_TYPE, q->flags) == MT76_WED_Q_RX) {
+       if (mt76_queue_is_wed_rx(q)) {
                txwi = mt76_get_rxwi(dev);
                if (!txwi)
                        return -ENOMEM;
        if (info)
                *info = le32_to_cpu(desc->info);
 
-       if ((q->flags & MT_QFLAG_WED) &&
-           FIELD_GET(MT_QFLAG_WED_TYPE, q->flags) == MT76_WED_Q_RX) {
+       if (mt76_queue_is_wed_rx(q)) {
                u32 token = FIELD_GET(MT_DMA_CTL_TOKEN,
                                      le32_to_cpu(desc->buf1));
                struct mt76_txwi_cache *t = mt76_rx_token_release(dev, token);
 
                              struct mt76_power_limits *dest,
                              s8 target_power);
 
+static inline bool mt76_queue_is_wed_rx(struct mt76_queue *q)
+{
+       return (q->flags & MT_QFLAG_WED) &&
+              FIELD_GET(MT_QFLAG_WED_TYPE, q->flags) == MT76_WED_Q_RX;
+}
+
 struct mt76_txwi_cache *
 mt76_token_release(struct mt76_dev *dev, int token, bool *wake);
 int mt76_token_consume(struct mt76_dev *dev, struct mt76_txwi_cache **ptxwi);
 
        if (!msta || !msta->vif)
                return;
 
-       if (!(q->flags & MT_QFLAG_WED) ||
-           FIELD_GET(MT_QFLAG_WED_TYPE, q->flags) != MT76_WED_Q_RX)
+       if (!mt76_queue_is_wed_rx(q))
                return;
 
        if (!(info & MT_DMA_INFO_PPE_VLD))