static void mlx5_ib_stage_pre_ib_reg_umr_cleanup(struct mlx5_ib_dev *dev)
 {
-       int err;
-
-       err = mlx5_mkey_cache_cleanup(dev);
-       if (err)
-               mlx5_ib_warn(dev, "mr cache cleanup failed\n");
-
+       mlx5_mkey_cache_cleanup(dev);
        mlx5r_umr_resource_cleanup(dev);
 }
 
 
 void mlx5_ib_copy_pas(u64 *old, u64 *new, int step, int num);
 int mlx5_ib_get_cqe_size(struct ib_cq *ibcq);
 int mlx5_mkey_cache_init(struct mlx5_ib_dev *dev);
-int mlx5_mkey_cache_cleanup(struct mlx5_ib_dev *dev);
+void mlx5_mkey_cache_cleanup(struct mlx5_ib_dev *dev);
 struct mlx5_cache_ent *
 mlx5r_cache_create_ent_locked(struct mlx5_ib_dev *dev,
                              struct mlx5r_cache_rb_key rb_key,
 
        return ret;
 }
 
-int mlx5_mkey_cache_cleanup(struct mlx5_ib_dev *dev)
+void mlx5_mkey_cache_cleanup(struct mlx5_ib_dev *dev)
 {
        struct rb_root *root = &dev->cache.rb_root;
        struct mlx5_cache_ent *ent;
        struct rb_node *node;
 
        if (!dev->cache.wq)
-               return 0;
+               return;
 
        cancel_delayed_work_sync(&dev->cache.remove_ent_dwork);
        mutex_lock(&dev->cache.rb_lock);
 
        destroy_workqueue(dev->cache.wq);
        del_timer_sync(&dev->delay_timer);
-
-       return 0;
 }
 
 struct ib_mr *mlx5_ib_get_dma_mr(struct ib_pd *pd, int acc)