BUILD_BUG_ON(PAGE_PTRS_PER_BVEC < 2);
        pages += entries_left * (PAGE_PTRS_PER_BVEC - 1);
 
+       /*
+        * Each segment in the iov is required to be a block size multiple.
+        * However, we may not be able to get the entire segment if it spans
+        * more pages than bi_max_vecs allows, so we have to ALIGN_DOWN the
+        * result to ensure the bio's total size is correct. The remainder of
+        * the iov data will be picked up in the next bio iteration.
+        */
        size = iov_iter_get_pages(iter, pages, LONG_MAX, nr_pages, &offset);
+       if (size > 0)
+               size = ALIGN_DOWN(size, bdev_logical_block_size(bio->bi_bdev));
        if (unlikely(size <= 0))
                return size ? size : -EFAULT;
 
 
 static bool blkdev_dio_unaligned(struct block_device *bdev, loff_t pos,
                              struct iov_iter *iter)
 {
-       return ((pos | iov_iter_alignment(iter)) &
-           (bdev_logical_block_size(bdev) - 1));
+       return pos & (bdev_logical_block_size(bdev) - 1) ||
+               !bdev_iter_is_aligned(bdev, iter);
 }
 
 #define DIO_INLINE_BIO_VECS 4
 
        unsigned long           nr_requests;    /* Max # of requests */
 
        unsigned int            dma_pad_mask;
+       /*
+        * Drivers that set dma_alignment to less than 511 must be prepared to
+        * handle individual bvec's that are not a multiple of a SECTOR_SIZE
+        * due to possible offsets.
+        */
        unsigned int            dma_alignment;
 
 #ifdef CONFIG_BLK_INLINE_ENCRYPTION