md_bitmap_wait_behind_writes(mddev);
        if (!mddev->serialize_policy)
-               mddev_destroy_serial_pool(mddev, NULL, true);
+               mddev_destroy_serial_pool(mddev, NULL);
 
        mutex_lock(&mddev->bitmap_info.mutex);
        spin_lock(&mddev->lock);
                goto out;
 
        rdev_for_each(rdev, mddev)
-               mddev_create_serial_pool(mddev, rdev, true);
+               mddev_create_serial_pool(mddev, rdev);
 
        if (mddev_is_clustered(mddev))
                md_cluster_ops->load_bitmaps(mddev, mddev->bitmap_info.nodes);
        if (!backlog && mddev->serial_info_pool) {
                /* serial_info_pool is not needed if backlog is zero */
                if (!mddev->serialize_policy)
-                       mddev_destroy_serial_pool(mddev, NULL, true);
+                       mddev_destroy_serial_pool(mddev, NULL);
        } else if (backlog && !mddev->serial_info_pool) {
                /* serial_info_pool is needed since backlog is not zero */
                rdev_for_each(rdev, mddev)
-                       mddev_create_serial_pool(mddev, rdev, true);
+                       mddev_create_serial_pool(mddev, rdev);
        }
        if (old_mwb != backlog)
                md_bitmap_update_sb(mddev->bitmap);
 
  * 1. rdev is the first device which return true from rdev_enable_serial.
  * 2. rdev is NULL, means we want to enable serialization for all rdevs.
  */
-void mddev_create_serial_pool(struct mddev *mddev, struct md_rdev *rdev,
-                             bool is_suspend)
+void mddev_create_serial_pool(struct mddev *mddev, struct md_rdev *rdev)
 {
        int ret = 0;
 
            !test_bit(CollisionCheck, &rdev->flags))
                return;
 
-       if (!is_suspend)
-               mddev_suspend(mddev);
-
        if (!rdev)
                ret = rdevs_init_serial(mddev);
        else
                ret = rdev_init_serial(rdev);
        if (ret)
-               goto abort;
+               return;
 
        if (mddev->serial_info_pool == NULL) {
                /*
                        pr_err("can't alloc memory pool for serialization\n");
                }
        }
-
-abort:
-       if (!is_suspend)
-               mddev_resume(mddev);
 }
 
 /*
  * 2. when bitmap is destroyed while policy is not enabled.
  * 3. for disable policy, the pool is destroyed only when no rdev needs it.
  */
-void mddev_destroy_serial_pool(struct mddev *mddev, struct md_rdev *rdev,
-                              bool is_suspend)
+void mddev_destroy_serial_pool(struct mddev *mddev, struct md_rdev *rdev)
 {
        if (rdev && !test_bit(CollisionCheck, &rdev->flags))
                return;
                struct md_rdev *temp;
                int num = 0; /* used to track if other rdevs need the pool */
 
-               if (!is_suspend)
-                       mddev_suspend(mddev);
                rdev_for_each(temp, mddev) {
                        if (!rdev) {
                                if (!mddev->serialize_policy ||
                        mempool_destroy(mddev->serial_info_pool);
                        mddev->serial_info_pool = NULL;
                }
-               if (!is_suspend)
-                       mddev_resume(mddev);
        }
 }
 
        pr_debug("md: bind<%s>\n", b);
 
        if (mddev->raid_disks)
-               mddev_create_serial_pool(mddev, rdev, true);
+               mddev_create_serial_pool(mddev, rdev);
 
        if ((err = kobject_add(&rdev->kobj, &mddev->kobj, "dev-%s", b)))
                goto fail;
        bd_unlink_disk_holder(rdev->bdev, rdev->mddev->gendisk);
        list_del_rcu(&rdev->same_set);
        pr_debug("md: unbind<%pg>\n", rdev->bdev);
-       mddev_destroy_serial_pool(rdev->mddev, rdev, false);
+       mddev_destroy_serial_pool(rdev->mddev, rdev);
        rdev->mddev = NULL;
        sysfs_remove_link(&rdev->kobj, "block");
        sysfs_put(rdev->sysfs_state);
                }
        } else if (cmd_match(buf, "writemostly")) {
                set_bit(WriteMostly, &rdev->flags);
-               mddev_create_serial_pool(rdev->mddev, rdev, true);
+               mddev_create_serial_pool(rdev->mddev, rdev);
                need_update_sb = true;
                err = 0;
        } else if (cmd_match(buf, "-writemostly")) {
-               mddev_destroy_serial_pool(rdev->mddev, rdev, true);
+               mddev_destroy_serial_pool(rdev->mddev, rdev);
                clear_bit(WriteMostly, &rdev->flags);
                need_update_sb = true;
                err = 0;
        }
 
        if (value)
-               mddev_create_serial_pool(mddev, NULL, true);
+               mddev_create_serial_pool(mddev, NULL);
        else
-               mddev_destroy_serial_pool(mddev, NULL, true);
+               mddev_destroy_serial_pool(mddev, NULL);
        mddev->serialize_policy = value;
 unlock:
        mddev_unlock_and_resume(mddev);
        }
        /* disable policy to guarantee rdevs free resources for serialization */
        mddev->serialize_policy = 0;
-       mddev_destroy_serial_pool(mddev, NULL, true);
+       mddev_destroy_serial_pool(mddev, NULL);
 }
 
 void md_stop_writes(struct mddev *mddev)
 
 
 extern void md_reload_sb(struct mddev *mddev, int raid_disk);
 extern void md_update_sb(struct mddev *mddev, int force);
-extern void mddev_create_serial_pool(struct mddev *mddev, struct md_rdev *rdev,
-                                    bool is_suspend);
-extern void mddev_destroy_serial_pool(struct mddev *mddev, struct md_rdev *rdev,
-                                     bool is_suspend);
+extern void mddev_create_serial_pool(struct mddev *mddev, struct md_rdev *rdev);
+extern void mddev_destroy_serial_pool(struct mddev *mddev,
+                                     struct md_rdev *rdev);
 struct md_rdev *md_find_rdev_nr_rcu(struct mddev *mddev, int nr);
 struct md_rdev *md_find_rdev_rcu(struct mddev *mddev, dev_t dev);