#include <linux/uaccess.h>
 #include <linux/io.h>
 
-/**
- * copy_oldmem_page - copy one page from "oldmem"
- * @pfn: page frame number to be copied
- * @buf: target memory address for the copy; this can be in kernel address
- *     space or user address space (see @userbuf)
- * @csize: number of bytes to copy
- * @offset: offset in bytes into the page (based on pfn) to begin the copy
- * @userbuf: if set, @buf is in user address space, use copy_to_user(),
- *     otherwise @buf is in kernel address space, use memcpy().
- *
- * Copy a page from "oldmem". For this page, there is no pte mapped
- * in the current kernel. We stitch up a pte, similar to kmap_atomic.
- */
-ssize_t copy_oldmem_page(unsigned long pfn, char *buf,
-               size_t csize, unsigned long offset, int userbuf)
+static ssize_t __copy_oldmem_page(unsigned long pfn, char *buf, size_t csize,
+                                 unsigned long offset, int userbuf,
+                                 bool encrypted)
 {
        void  *vaddr;
 
        if (!csize)
                return 0;
 
-       vaddr = ioremap_cache(pfn << PAGE_SHIFT, PAGE_SIZE);
+       if (encrypted)
+               vaddr = (__force void *)ioremap_encrypted(pfn << PAGE_SHIFT, PAGE_SIZE);
+       else
+               vaddr = (__force void *)ioremap_cache(pfn << PAGE_SHIFT, PAGE_SIZE);
+
        if (!vaddr)
                return -ENOMEM;
 
        if (userbuf) {
-               if (copy_to_user(buf, vaddr + offset, csize)) {
-                       iounmap(vaddr);
+               if (copy_to_user((void __user *)buf, vaddr + offset, csize)) {
+                       iounmap((void __iomem *)vaddr);
                        return -EFAULT;
                }
        } else
                memcpy(buf, vaddr + offset, csize);
 
        set_iounmap_nonlazy();
-       iounmap(vaddr);
+       iounmap((void __iomem *)vaddr);
        return csize;
 }
+
+/**
+ * copy_oldmem_page - copy one page of memory
+ * @pfn: page frame number to be copied
+ * @buf: target memory address for the copy; this can be in kernel address
+ *     space or user address space (see @userbuf)
+ * @csize: number of bytes to copy
+ * @offset: offset in bytes into the page (based on pfn) to begin the copy
+ * @userbuf: if set, @buf is in user address space, use copy_to_user(),
+ *     otherwise @buf is in kernel address space, use memcpy().
+ *
+ * Copy a page from the old kernel's memory. For this page, there is no pte
+ * mapped in the current kernel. We stitch up a pte, similar to kmap_atomic.
+ */
+ssize_t copy_oldmem_page(unsigned long pfn, char *buf, size_t csize,
+                        unsigned long offset, int userbuf)
+{
+       return __copy_oldmem_page(pfn, buf, csize, offset, userbuf, false);
+}
+
+/**
+ * copy_oldmem_page_encrypted - same as copy_oldmem_page() above but ioremap the
+ * memory with the encryption mask set to accomodate kdump on SME-enabled
+ * machines.
+ */
+ssize_t copy_oldmem_page_encrypted(unsigned long pfn, char *buf, size_t csize,
+                                  unsigned long offset, int userbuf)
+{
+       return __copy_oldmem_page(pfn, buf, csize, offset, userbuf, true);
+}
 
 #include <linux/vmalloc.h>
 #include <linux/pagemap.h>
 #include <linux/uaccess.h>
+#include <linux/mem_encrypt.h>
+#include <asm/pgtable.h>
 #include <asm/io.h>
 #include "internal.h"
 
 
 /* Reads a page from the oldmem device from given offset. */
 static ssize_t read_from_oldmem(char *buf, size_t count,
-                               u64 *ppos, int userbuf)
+                               u64 *ppos, int userbuf,
+                               bool encrypted)
 {
        unsigned long pfn, offset;
        size_t nr_bytes;
                if (pfn_is_ram(pfn) == 0)
                        memset(buf, 0, nr_bytes);
                else {
-                       tmp = copy_oldmem_page(pfn, buf, nr_bytes,
-                                               offset, userbuf);
+                       if (encrypted)
+                               tmp = copy_oldmem_page_encrypted(pfn, buf,
+                                                                nr_bytes,
+                                                                offset,
+                                                                userbuf);
+                       else
+                               tmp = copy_oldmem_page(pfn, buf, nr_bytes,
+                                                      offset, userbuf);
+
                        if (tmp < 0)
                                return tmp;
                }
  */
 ssize_t __weak elfcorehdr_read(char *buf, size_t count, u64 *ppos)
 {
-       return read_from_oldmem(buf, count, ppos, 0);
+       return read_from_oldmem(buf, count, ppos, 0, false);
 }
 
 /*
  */
 ssize_t __weak elfcorehdr_read_notes(char *buf, size_t count, u64 *ppos)
 {
-       return read_from_oldmem(buf, count, ppos, 0);
+       return read_from_oldmem(buf, count, ppos, 0, sme_active());
 }
 
 /*
                                  unsigned long from, unsigned long pfn,
                                  unsigned long size, pgprot_t prot)
 {
+       prot = pgprot_encrypted(prot);
        return remap_pfn_range(vma, from, pfn, size, prot);
 }
 
                                            m->offset + m->size - *fpos,
                                            buflen);
                        start = m->paddr + *fpos - m->offset;
-                       tmp = read_from_oldmem(buffer, tsz, &start, userbuf);
+                       tmp = read_from_oldmem(buffer, tsz, &start,
+                                              userbuf, sme_active());
                        if (tmp < 0)
                                return tmp;
                        buflen -= tsz;