task_io_account_write(ret);
        }
        if (iocb->ki_flags & IOCB_HIPRI)
-               bio.bi_opf |= REQ_HIPRI;
+               bio_set_polled(&bio, iocb);
 
        qc = submit_bio(&bio);
        for (;;) {
                        bool polled = false;
 
                        if (iocb->ki_flags & IOCB_HIPRI) {
-                               bio->bi_opf |= REQ_HIPRI;
+                               bio_set_polled(bio, iocb);
                                polled = true;
                        }
 
 
 
 #endif /* CONFIG_BLK_DEV_INTEGRITY */
 
+/*
+ * Mark a bio as polled. Note that for async polled IO, the caller must
+ * expect -EWOULDBLOCK if we cannot allocate a request (or other resources).
+ * We cannot block waiting for requests on polled IO, as those completions
+ * must be found by the caller. This is different than IRQ driven IO, where
+ * it's safe to wait for IO to complete.
+ */
+static inline void bio_set_polled(struct bio *bio, struct kiocb *kiocb)
+{
+       bio->bi_opf |= REQ_HIPRI;
+       if (!is_sync_kiocb(kiocb))
+               bio->bi_opf |= REQ_NOWAIT;
+}
+
 #endif /* CONFIG_BLOCK */
 #endif /* __LINUX_BIO_H */