choice
        prompt "Default allocator"
        depends on ZSWAP
-       default ZSWAP_ZPOOL_DEFAULT_ZSMALLOC if MMU
+       default ZSWAP_ZPOOL_DEFAULT_ZSMALLOC if HAVE_ZSMALLOC
        default ZSWAP_ZPOOL_DEFAULT_ZBUD
        help
          Selects the default allocator for the compressed cache for
 
 config ZSWAP_ZPOOL_DEFAULT_ZSMALLOC
        bool "zsmalloc"
+       depends on HAVE_ZSMALLOC
        select ZSMALLOC
        help
          Use the zsmalloc allocator as the default allocator.
          page. It is a ZBUD derivative so the simplicity and determinism are
          still there.
 
+config HAVE_ZSMALLOC
+       def_bool y
+       depends on MMU
+       depends on PAGE_SIZE_LESS_THAN_256KB # we want <= 64 KiB
+
 config ZSMALLOC
        tristate
        prompt "N:1 compression allocator (zsmalloc)" if ZSWAP
-       depends on MMU
+       depends on HAVE_ZSMALLOC
        help
          zsmalloc is a slab-based memory allocator designed to store
          pages of various compression levels efficiently. It achieves
 
  *     page->index: links together all component pages of a zspage
  *             For the huge page, this is always 0, so we use this field
  *             to store handle.
- *     page->page_type: first object offset in a subpage of zspage
+ *     page->page_type: PG_zsmalloc, lower 16 bit locate the first object
+ *             offset in a subpage of a zspage
  *
  * Usage of struct page flags:
  *     PG_private: identifies the first component page
        return first_page;
 }
 
+#define FIRST_OBJ_PAGE_TYPE_MASK       0xffff
+
+static inline void reset_first_obj_offset(struct page *page)
+{
+       VM_WARN_ON_ONCE(!PageZsmalloc(page));
+       page->page_type |= FIRST_OBJ_PAGE_TYPE_MASK;
+}
+
 static inline unsigned int get_first_obj_offset(struct page *page)
 {
-       return page->page_type;
+       VM_WARN_ON_ONCE(!PageZsmalloc(page));
+       return page->page_type & FIRST_OBJ_PAGE_TYPE_MASK;
 }
 
 static inline void set_first_obj_offset(struct page *page, unsigned int offset)
 {
-       page->page_type = offset;
+       /* With 16 bit available, we can support offsets into 64 KiB pages. */
+       BUILD_BUG_ON(PAGE_SIZE > SZ_64K);
+       VM_WARN_ON_ONCE(!PageZsmalloc(page));
+       VM_WARN_ON_ONCE(offset & ~FIRST_OBJ_PAGE_TYPE_MASK);
+       page->page_type &= ~FIRST_OBJ_PAGE_TYPE_MASK;
+       page->page_type |= offset & FIRST_OBJ_PAGE_TYPE_MASK;
 }
 
 static inline unsigned int get_freeobj(struct zspage *zspage)
        __ClearPageMovable(page);
        ClearPagePrivate(page);
        set_page_private(page, 0);
-       page_mapcount_reset(page);
        page->index = 0;
+       reset_first_obj_offset(page);
+       __ClearPageZsmalloc(page);
 }
 
 static int trylock_zspage(struct zspage *zspage)
                if (!page) {
                        while (--i >= 0) {
                                dec_zone_page_state(pages[i], NR_ZSPAGES);
+                               __ClearPageZsmalloc(pages[i]);
                                __free_page(pages[i]);
                        }
                        cache_free_zspage(pool, zspage);
                        return NULL;
                }
+               __SetPageZsmalloc(page);
 
                inc_zone_page_state(page, NR_ZSPAGES);
                pages[i] = page;
 
        VM_BUG_ON_PAGE(!PageIsolated(page), page);
 
+       /* We're committed, tell the world that this is a Zsmalloc page. */
+       __SetPageZsmalloc(newpage);
+
        /* The page is locked, so this pointer must remain valid */
        zspage = get_zspage(page);
        pool = zspage->pool;