__bio_clone_fast(b, bio);
 
-       bio_crypt_clone(b, bio, gfp_mask);
+       if (bio_crypt_clone(b, bio, gfp_mask) < 0)
+               goto err_put;
 
-       if (bio_integrity(bio)) {
-               int ret;
-
-               ret = bio_integrity_clone(b, bio, gfp_mask);
-
-               if (ret < 0) {
-                       bio_put(b);
-                       return NULL;
-               }
-       }
+       if (bio_integrity(bio) &&
+           bio_integrity_clone(b, bio, gfp_mask) < 0)
+               goto err_put;
 
        return b;
+
+err_put:
+       bio_put(b);
+       return NULL;
 }
 EXPORT_SYMBOL(bio_clone_fast);
 
 
        bio->bi_crypt_context = NULL;
 }
 
-void __bio_crypt_clone(struct bio *dst, struct bio *src, gfp_t gfp_mask)
+int __bio_crypt_clone(struct bio *dst, struct bio *src, gfp_t gfp_mask)
 {
        dst->bi_crypt_context = mempool_alloc(bio_crypt_ctx_pool, gfp_mask);
+       if (!dst->bi_crypt_context)
+               return -ENOMEM;
        *dst->bi_crypt_context = *src->bi_crypt_context;
+       return 0;
 }
 EXPORT_SYMBOL_GPL(__bio_crypt_clone);
 
 
                break;
        }
 
-       bio_crypt_clone(bio, bio_src, gfp_mask);
+       if (bio_crypt_clone(bio, bio_src, gfp_mask) < 0)
+               goto err_put;
 
-       if (bio_integrity(bio_src)) {
-               int ret;
-
-               ret = bio_integrity_clone(bio, bio_src, gfp_mask);
-               if (ret < 0) {
-                       bio_put(bio);
-                       return NULL;
-               }
-       }
+       if (bio_integrity(bio_src) &&
+           bio_integrity_clone(bio, bio_src, gfp_mask) < 0)
+               goto err_put;
 
        bio_clone_blkg_association(bio, bio_src);
        blkcg_bio_issue_init(bio);
 
        return bio;
+
+err_put:
+       bio_put(bio);
+       return NULL;
 }
 
 static void __blk_queue_bounce(struct request_queue *q, struct bio **bio_orig,
 
                     sector_t sector, unsigned len)
 {
        struct bio *clone = &tio->clone;
+       int r;
 
        __bio_clone_fast(clone, bio);
 
-       bio_crypt_clone(clone, bio, GFP_NOIO);
+       r = bio_crypt_clone(clone, bio, GFP_NOIO);
+       if (r < 0)
+               return r;
 
        if (bio_integrity(bio)) {
-               int r;
-
                if (unlikely(!dm_target_has_integrity(tio->ti->type) &&
                             !dm_target_passes_integrity(tio->ti->type))) {
                        DMWARN("%s: the target %s doesn't support integrity data.",
 
 
 #endif /* CONFIG_BLK_INLINE_ENCRYPTION */
 
-void __bio_crypt_clone(struct bio *dst, struct bio *src, gfp_t gfp_mask);
-static inline void bio_crypt_clone(struct bio *dst, struct bio *src,
-                                  gfp_t gfp_mask)
+int __bio_crypt_clone(struct bio *dst, struct bio *src, gfp_t gfp_mask);
+/**
+ * bio_crypt_clone - clone bio encryption context
+ * @dst: destination bio
+ * @src: source bio
+ * @gfp_mask: memory allocation flags
+ *
+ * If @src has an encryption context, clone it to @dst.
+ *
+ * Return: 0 on success, -ENOMEM if out of memory.  -ENOMEM is only possible if
+ *        @gfp_mask doesn't include %__GFP_DIRECT_RECLAIM.
+ */
+static inline int bio_crypt_clone(struct bio *dst, struct bio *src,
+                                 gfp_t gfp_mask)
 {
        if (bio_has_crypt_ctx(src))
-               __bio_crypt_clone(dst, src, gfp_mask);
+               return __bio_crypt_clone(dst, src, gfp_mask);
+       return 0;
 }
 
 #endif /* __LINUX_BLK_CRYPTO_H */