uint32_t cnt, que_idx;
        uint8_t que_cnt;
        struct qla2xxx_mq_chain *mq = ptr;
-       struct device_reg_25xxmq __iomem *reg;
+       device_reg_t __iomem *reg;
 
        if (!ha->mqenable || IS_QLA83XX(ha))
                return ptr;
                ha->max_req_queues : ha->max_rsp_queues;
        mq->count = htonl(que_cnt);
        for (cnt = 0; cnt < que_cnt; cnt++) {
-               reg = (struct device_reg_25xxmq __iomem *)
-                       (ha->mqiobase + cnt * QLA_QUE_PAGE);
+               reg = ISP_QUE_REG(ha, cnt);
                que_idx = cnt * 4;
-               mq->qregs[que_idx] = htonl(RD_REG_DWORD(®->req_q_in));
-               mq->qregs[que_idx+1] = htonl(RD_REG_DWORD(®->req_q_out));
-               mq->qregs[que_idx+2] = htonl(RD_REG_DWORD(®->rsp_q_in));
-               mq->qregs[que_idx+3] = htonl(RD_REG_DWORD(®->rsp_q_out));
+               mq->qregs[que_idx] =
+                   htonl(RD_REG_DWORD(®->isp25mq.req_q_in));
+               mq->qregs[que_idx+1] =
+                   htonl(RD_REG_DWORD(®->isp25mq.req_q_out));
+               mq->qregs[que_idx+2] =
+                   htonl(RD_REG_DWORD(®->isp25mq.rsp_q_in));
+               mq->qregs[que_idx+3] =
+                   htonl(RD_REG_DWORD(®->isp25mq.rsp_q_out));
        }
 
        return ptr + sizeof(struct qla2xxx_mq_chain);
 
 #define QLA_MAX_QUEUES 256
 #define ISP_QUE_REG(ha, id) \
        ((ha->mqenable || IS_QLA83XX(ha)) ? \
-       ((device_reg_t __iomem *)(ha->mqiobase) +\
-       (QLA_QUE_PAGE * id)) :\
-       ((device_reg_t __iomem *)(ha->iobase)))
+        ((void __iomem *)ha->mqiobase + (QLA_QUE_PAGE * id)) :\
+        ((void __iomem *)ha->iobase))
 #define QLA_REQ_QUE_ID(tag) \
        ((tag < QLA_MAX_QUEUES && tag > 0) ? tag : 0)
 #define QLA_DEFAULT_QUE_QOS 5
 
        unsigned long flags;
        mbx_cmd_t mc;
        mbx_cmd_t *mcp = &mc;
-       struct device_reg_25xxmq __iomem *reg;
        struct qla_hw_data *ha = vha->hw;
 
        ql_dbg(ql_dbg_mbx + ql_dbg_verbose, vha, 0x10d3,
        if (IS_QLA83XX(ha))
                mcp->mb[15] = 0;
 
-       reg = (struct device_reg_25xxmq __iomem *)((ha->mqiobase) +
-               QLA_QUE_PAGE * req->id);
-
        mcp->mb[4] = req->id;
        /* que in ptr index */
        mcp->mb[8] = 0;
 
        spin_lock_irqsave(&ha->hardware_lock, flags);
        if (!(req->options & BIT_0)) {
-               WRT_REG_DWORD(®->req_q_in, 0);
+               WRT_REG_DWORD(req->req_q_in, 0);
                if (!IS_QLA83XX(ha))
-                       WRT_REG_DWORD(®->req_q_out, 0);
+                       WRT_REG_DWORD(req->req_q_out, 0);
        }
-       req->req_q_in = ®->req_q_in;
-       req->req_q_out = ®->req_q_out;
        spin_unlock_irqrestore(&ha->hardware_lock, flags);
 
        rval = qla2x00_mailbox_command(vha, mcp);
        unsigned long flags;
        mbx_cmd_t mc;
        mbx_cmd_t *mcp = &mc;
-       struct device_reg_25xxmq __iomem *reg;
        struct qla_hw_data *ha = vha->hw;
 
        ql_dbg(ql_dbg_mbx + ql_dbg_verbose, vha, 0x10d6,
        if (IS_QLA83XX(ha))
                mcp->mb[15] = 0;
 
-       reg = (struct device_reg_25xxmq __iomem *)((ha->mqiobase) +
-               QLA_QUE_PAGE * rsp->id);
-
        mcp->mb[4] = rsp->id;
        /* que in ptr index */
        mcp->mb[8] = 0;
 
        spin_lock_irqsave(&ha->hardware_lock, flags);
        if (!(rsp->options & BIT_0)) {
-               WRT_REG_DWORD(®->rsp_q_out, 0);
+               WRT_REG_DWORD(rsp->rsp_q_out, 0);
                if (!IS_QLA83XX(ha))
-                       WRT_REG_DWORD(®->rsp_q_in, 0);
+                       WRT_REG_DWORD(rsp->rsp_q_in, 0);
        }
 
        spin_unlock_irqrestore(&ha->hardware_lock, flags);
 
        req->cnt = req->length;
        req->id = que_id;
        reg = ISP_QUE_REG(ha, que_id);
+       req->req_q_in = ®->isp25mq.req_q_in;
+       req->req_q_out = ®->isp25mq.req_q_out;
        req->max_q_depth = ha->req_q_map[0]->max_q_depth;
        mutex_unlock(&ha->vport_lock);
        ql_dbg(ql_dbg_multiq, base_vha, 0xc004,