rq->special = NULL;
        /* tag was already set */
        rq->extra_len = 0;
-       rq->__deadline = 0;
+       WRITE_ONCE(rq->deadline, 0);
 
        rq->timeout = 0;
 
        if (rq->rq_flags & RQF_TIMED_OUT)
                return false;
 
-       deadline = blk_rq_deadline(rq);
+       deadline = READ_ONCE(rq->deadline);
        if (time_after_eq(jiffies, deadline))
                return true;
 
 
         * immediately and that scan sees the new timeout value.
         * No need for fancy synchronizations.
         */
-       blk_rq_set_deadline(req, jiffies);
+       WRITE_ONCE(req->deadline, jiffies);
        kblockd_schedule_work(&req->q->timeout_work);
 }
 EXPORT_SYMBOL_GPL(blk_abort_request);
                req->timeout = q->rq_timeout;
 
        req->rq_flags &= ~RQF_TIMED_OUT;
-       blk_rq_set_deadline(req, jiffies + req->timeout);
+
+       expiry = jiffies + req->timeout;
+       WRITE_ONCE(req->deadline, expiry);
 
        /*
         * If the timer isn't already pending or this timeout is earlier
         * than an existing one, modify the timer. Round up to next nearest
         * second.
         */
-       expiry = blk_rq_timeout(round_jiffies_up(blk_rq_deadline(req)));
+       expiry = blk_rq_timeout(round_jiffies_up(expiry));
 
        if (!timer_pending(&q->timeout) ||
            time_before(expiry, q->timeout.expires)) {
 
 void blk_account_io_completion(struct request *req, unsigned int bytes);
 void blk_account_io_done(struct request *req, u64 now);
 
-/*
- * EH timer and IO completion will both attempt to 'grab' the request, make
- * sure that only one of them succeeds. Steal the bottom bit of the
- * __deadline field for this.
- */
-static inline int blk_mark_rq_complete(struct request *rq)
-{
-       return test_and_set_bit(0, &rq->__deadline);
-}
-
-static inline void blk_clear_rq_complete(struct request *rq)
-{
-       clear_bit(0, &rq->__deadline);
-}
-
-static inline bool blk_rq_is_complete(struct request *rq)
-{
-       return test_bit(0, &rq->__deadline);
-}
-
 /*
  * Internal elevator interface
  */
                q->last_merge = NULL;
 }
 
-/*
- * Steal a bit from this field for legacy IO path atomic IO marking. Note that
- * setting the deadline clears the bottom bit, potentially clearing the
- * completed bit. The user has to be OK with this (current ones are fine).
- */
-static inline void blk_rq_set_deadline(struct request *rq, unsigned long time)
-{
-       rq->__deadline = time & ~0x1UL;
-}
-
-static inline unsigned long blk_rq_deadline(struct request *rq)
-{
-       return rq->__deadline & ~0x1UL;
-}
-
 /*
  * Internal io_context interface
  */
 
        refcount_t ref;
 
        unsigned int timeout;
-
-       /* access through blk_rq_set_deadline, blk_rq_deadline */
-       unsigned long __deadline;
+       unsigned long deadline;
 
        union {
                struct __call_single_data csd;