#include <linux/module.h>
 #include <linux/sched.h> /* for spin_unlock_irq() using preempt_count() m68k */
 #include <linux/tick.h>
+#include <linux/kthread.h>
 
 void timecounter_init(struct timecounter *tc,
                      const struct cyclecounter *cc,
 static cycle_t watchdog_last;
 static int watchdog_running;
 
-static void clocksource_watchdog_work(struct work_struct *work);
+static int clocksource_watchdog_kthread(void *data);
 static void __clocksource_change_rating(struct clocksource *cs, int rating);
 
 /*
 #define WATCHDOG_INTERVAL (HZ >> 1)
 #define WATCHDOG_THRESHOLD (NSEC_PER_SEC >> 4)
 
+static void clocksource_watchdog_work(struct work_struct *work)
+{
+       /*
+        * If kthread_run fails the next watchdog scan over the
+        * watchdog_list will find the unstable clock again.
+        */
+       kthread_run(clocksource_watchdog_kthread, NULL, "kwatchdog");
+}
+
 static void clocksource_unstable(struct clocksource *cs, int64_t delta)
 {
        printk(KERN_WARNING "Clocksource %s unstable (delta = %Ld ns)\n",
        list_for_each_entry(cs, &watchdog_list, wd_list) {
 
                /* Clocksource already marked unstable? */
-               if (cs->flags & CLOCK_SOURCE_UNSTABLE)
+               if (cs->flags & CLOCK_SOURCE_UNSTABLE) {
+                       schedule_work(&watchdog_work);
                        continue;
+               }
 
                csnow = cs->read(cs);
 
        spin_unlock_irqrestore(&watchdog_lock, flags);
 }
 
-static void clocksource_watchdog_work(struct work_struct *work)
+static int clocksource_watchdog_kthread(void *data)
 {
        struct clocksource *cs, *tmp;
        unsigned long flags;
                __clocksource_change_rating(cs, 0);
        }
        mutex_unlock(&clocksource_mutex);
+       return 0;
 }
 
 #else /* CONFIG_CLOCKSOURCE_WATCHDOG */