static void check_element(mempool_t *pool, void *element)
 {
        /* Mempools backed by slab allocator */
-       if (pool->free == mempool_free_slab || pool->free == mempool_kfree)
+       if (pool->free == mempool_free_slab || pool->free == mempool_kfree) {
                __check_element(pool, element, ksize(element));
-
-       /* Mempools backed by page allocator */
-       if (pool->free == mempool_free_pages) {
+       } else if (pool->free == mempool_free_pages) {
+               /* Mempools backed by page allocator */
                int order = (int)(long)pool->pool_data;
                void *addr = kmap_atomic((struct page *)element);
 
 static void poison_element(mempool_t *pool, void *element)
 {
        /* Mempools backed by slab allocator */
-       if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc)
+       if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc) {
                __poison_element(element, ksize(element));
-
-       /* Mempools backed by page allocator */
-       if (pool->alloc == mempool_alloc_pages) {
+       } else if (pool->alloc == mempool_alloc_pages) {
+               /* Mempools backed by page allocator */
                int order = (int)(long)pool->pool_data;
                void *addr = kmap_atomic((struct page *)element);
 
 {
        if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc)
                kasan_poison_kfree(element, _RET_IP_);
-       if (pool->alloc == mempool_alloc_pages)
+       else if (pool->alloc == mempool_alloc_pages)
                kasan_free_pages(element, (unsigned long)pool->pool_data);
 }
 
 {
        if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc)
                kasan_unpoison_slab(element);
-       if (pool->alloc == mempool_alloc_pages)
+       else if (pool->alloc == mempool_alloc_pages)
                kasan_alloc_pages(element, (unsigned long)pool->pool_data);
 }