/* drbd_worker.c */
 extern int drbd_worker(struct drbd_thread *thi);
-enum drbd_ret_code drbd_sync_after_valid(struct drbd_conf *mdev, int o_minor);
-void drbd_sync_after_changed(struct drbd_conf *mdev);
+enum drbd_ret_code drbd_resync_after_valid(struct drbd_conf *mdev, int o_minor);
+void drbd_resync_after_changed(struct drbd_conf *mdev);
 extern void drbd_start_resync(struct drbd_conf *mdev, enum drbd_conns side);
 extern void resume_next_sg(struct drbd_conf *mdev);
 extern void suspend_other_sg(struct drbd_conf *mdev);
 
        }
 
        write_lock_irq(&global_state_lock);
-       retcode = drbd_sync_after_valid(mdev, new_disk_conf->resync_after);
+       retcode = drbd_resync_after_valid(mdev, new_disk_conf->resync_after);
        if (retcode == NO_ERROR) {
                rcu_assign_pointer(mdev->ldev->disk_conf, new_disk_conf);
-               drbd_sync_after_changed(mdev);
+               drbd_resync_after_changed(mdev);
        }
        write_unlock_irq(&global_state_lock);
 
 
 
 /* About the global_state_lock
    Each state transition on an device holds a read lock. In case we have
-   to evaluate the sync after dependencies, we grab a write lock, because
+   to evaluate the resync after dependencies, we grab a write lock, because
    we need stable states on all devices for that.  */
 rwlock_t global_state_lock;
 
 static int _drbd_may_sync_now(struct drbd_conf *mdev)
 {
        struct drbd_conf *odev = mdev;
-       int ra;
+       int resync_after;
 
        while (1) {
                if (!odev->ldev)
                        return 1;
                rcu_read_lock();
-               ra = rcu_dereference(odev->ldev->disk_conf)->resync_after;
+               resync_after = rcu_dereference(odev->ldev->disk_conf)->resync_after;
                rcu_read_unlock();
-               if (ra == -1)
+               if (resync_after == -1)
                        return 1;
-               odev = minor_to_mdev(ra);
+               odev = minor_to_mdev(resync_after);
                if (!expect(odev))
                        return 1;
                if ((odev->state.conn >= C_SYNC_SOURCE &&
 }
 
 /* caller must hold global_state_lock */
-enum drbd_ret_code drbd_sync_after_valid(struct drbd_conf *mdev, int o_minor)
+enum drbd_ret_code drbd_resync_after_valid(struct drbd_conf *mdev, int o_minor)
 {
        struct drbd_conf *odev;
-       int ra;
+       int resync_after;
 
        if (o_minor == -1)
                return NO_ERROR;
        if (o_minor < -1 || minor_to_mdev(o_minor) == NULL)
-               return ERR_SYNC_AFTER;
+               return ERR_RESYNC_AFTER;
 
        /* check for loops */
        odev = minor_to_mdev(o_minor);
        while (1) {
                if (odev == mdev)
-                       return ERR_SYNC_AFTER_CYCLE;
+                       return ERR_RESYNC_AFTER_CYCLE;
 
                rcu_read_lock();
-               ra = rcu_dereference(odev->ldev->disk_conf)->resync_after;
+               resync_after = rcu_dereference(odev->ldev->disk_conf)->resync_after;
                rcu_read_unlock();
                /* dependency chain ends here, no cycles. */
-               if (ra == -1)
+               if (resync_after == -1)
                        return NO_ERROR;
 
                /* follow the dependency chain */
-               odev = minor_to_mdev(ra);
+               odev = minor_to_mdev(resync_after);
        }
 }
 
 /* caller must hold global_state_lock */
-void drbd_sync_after_changed(struct drbd_conf *mdev)
+void drbd_resync_after_changed(struct drbd_conf *mdev)
 {
        int changes;
 
 
        ERR_INTR                = 129, /* EINTR */
        ERR_RESIZE_RESYNC       = 130,
        ERR_NO_PRIMARY          = 131,
-       ERR_SYNC_AFTER          = 132,
-       ERR_SYNC_AFTER_CYCLE    = 133,
+       ERR_RESYNC_AFTER        = 132,
+       ERR_RESYNC_AFTER_CYCLE  = 133,
        ERR_PAUSE_IS_SET        = 134,
        ERR_PAUSE_IS_CLEAR      = 135,
        ERR_PACKET_NR           = 137,
 
        __u32_field_def(7, GENLA_F_MANDATORY,   fencing, DRBD_FENCING_DEF)
 
        __u32_field_def(8,      GENLA_F_MANDATORY,      resync_rate, DRBD_RESYNC_RATE_DEF)
-       __u32_field_def(9,      GENLA_F_MANDATORY,      resync_after, DRBD_AFTER_DEF)
+       __u32_field_def(9,      GENLA_F_MANDATORY,      resync_after, DRBD_RESYNC_AFTER_DEF)
        __u32_field_def(10,     GENLA_F_MANDATORY,      al_extents, DRBD_AL_EXTENTS_DEF)
        __u32_field_def(11,     GENLA_F_MANDATORY,      c_plan_ahead, DRBD_C_PLAN_AHEAD_DEF)
        __u32_field_def(12,     GENLA_F_MANDATORY,      c_delay_target, DRBD_C_DELAY_TARGET_DEF)
 
 #define DRBD_AL_EXTENTS_MAX  6433
 #define DRBD_AL_EXTENTS_DEF  127
 
-#define DRBD_AFTER_MIN  -1
-#define DRBD_AFTER_MAX  255
-#define DRBD_AFTER_DEF  -1
+#define DRBD_RESYNC_AFTER_MIN  -1
+#define DRBD_RESYNC_AFTER_MAX  (1<<30)
+#define DRBD_RESYNC_AFTER_DEF  -1
+#define DRBD_RESYNC_AFTER_SCALE '1'
 
 /* } */