* The QEMU clock as a clocksource primitive.
  */
 
-static cycle_t
+static u64
 qemu_cs_read(struct clocksource *cs)
 {
        return qemu_get_vmtime();
  * use this method when WTINT is in use.
  */
 
-static cycle_t read_rpcc(struct clocksource *cs)
+static u64 read_rpcc(struct clocksource *cs)
 {
        return rpcc();
 }
 
 /*
  * clocksource
  */
-static cycle_t read_cycles(struct clocksource *cs)
+static u64 read_cycles(struct clocksource *cs)
 {
        struct timer_s *t = &timers[TID_CLOCKSOURCE];
 
 
        return ret;
 }
 
-cycle_t ep93xx_clocksource_read(struct clocksource *c)
+u64 ep93xx_clocksource_read(struct clocksource *c)
 {
        u64 ret;
 
        ret = readl(EP93XX_TIMER4_VALUE_LOW);
        ret |= ((u64) (readl(EP93XX_TIMER4_VALUE_HIGH) & 0xff) << 32);
-       return (cycle_t) ret;
+       return (u64) ret;
 }
 
 static int ep93xx_clkevt_set_next_event(unsigned long next,
 
 
 #include "common.h"
 
-static cycle_t cksrc_dc21285_read(struct clocksource *cs)
+static u64 cksrc_dc21285_read(struct clocksource *cs)
 {
        return cs->mask - *CSR_TIMER2_VALUE;
 }
 
  * clocksource
  */
 
-static cycle_t ixp4xx_clocksource_read(struct clocksource *c)
+static u64 ixp4xx_clocksource_read(struct clocksource *c)
 {
        return *IXP4XX_OSTS;
 }
 
        .set_state_oneshot      = timer_set_shutdown,
 };
 
-static cycle_t clksrc_read(struct clocksource *cs)
+static u64 clksrc_read(struct clocksource *cs)
 {
        return timer_read();
 }
 
 /*
  * clocksource
  */
-static cycle_t clocksource_read_cycles(struct clocksource *cs)
+static u64 clocksource_read_cycles(struct clocksource *cs)
 {
-       return (cycle_t)__omap_dm_timer_read_counter(&clksrc,
+       return (u64)__omap_dm_timer_read_counter(&clksrc,
                                                     OMAP_TIMER_NONPOSTED);
 }
 
 
 /*
  * IOP clocksource (free-running timer 1).
  */
-static cycle_t notrace iop_clocksource_read(struct clocksource *unused)
+static u64 notrace iop_clocksource_read(struct clocksource *unused)
 {
        return 0xffffffffu - read_tcr1();
 }
 
 
 static bool disable_cpu_idle_poll;
 
-static cycle_t read_cycle_count(struct clocksource *cs)
+static u64 read_cycle_count(struct clocksource *cs)
 {
-       return (cycle_t)sysreg_read(COUNT);
+       return (u64)sysreg_read(COUNT);
 }
 
 /*
 
 
 #if defined(CONFIG_CYCLES_CLOCKSOURCE)
 
-static notrace cycle_t bfin_read_cycles(struct clocksource *cs)
+static notrace u64 bfin_read_cycles(struct clocksource *cs)
 {
 #ifdef CONFIG_CPU_FREQ
        return __bfin_cycles_off + (get_cycles() << __bfin_cycles_mod);
        enable_gptimers(TIMER0bit);
 }
 
-static cycle_t bfin_read_gptimer0(struct clocksource *cs)
+static u64 bfin_read_gptimer0(struct clocksource *cs)
 {
        return bfin_read_TIMER0_COUNTER();
 }
 
 static u32 sched_clock_multiplier;
 #define SCHED_CLOCK_SHIFT 16
 
-static cycle_t tsc_read(struct clocksource *cs)
+static u64 tsc_read(struct clocksource *cs)
 {
        return get_cycles();
 }
 
 /*  Look for "TCX0" for related constants.  */
 static __iomem struct adsp_hw_timer_struct *rtos_timer;
 
-static cycle_t timer_get_cycles(struct clocksource *cs)
+static u64 timer_get_cycles(struct clocksource *cs)
 {
-       return (cycle_t) __vmgettime();
+       return (u64) __vmgettime();
 }
 
 static struct clocksource hexagon_clocksource = {
 
 
 static void __iomem *cyclone_mc;
 
-static cycle_t read_cyclone(struct clocksource *cs)
+static u64 read_cyclone(struct clocksource *cs)
 {
-       return (cycle_t)readq((void __iomem *)cyclone_mc);
+       return (u64)readq((void __iomem *)cyclone_mc);
 }
 
 static struct clocksource clocksource_cyclone = {
 
        seqcount_t      seq;
        struct timespec wall_time;
        struct timespec monotonic_time;
-       cycle_t         clk_mask;
+       u64             clk_mask;
        u32             clk_mult;
        u32             clk_shift;
        void            *clk_fsys_mmio;
-       cycle_t         clk_cycle_last;
+       u64             clk_cycle_last;
 } ____cacheline_aligned;
 
 struct itc_jitter_data_t {
        int             itc_jitter;
-       cycle_t         itc_lastcycle;
+       u64             itc_lastcycle;
 } ____cacheline_aligned;
 
 
 
 #include "fsyscall_gtod_data.h"
 
-static cycle_t itc_get_cycles(struct clocksource *cs);
+static u64 itc_get_cycles(struct clocksource *cs);
 
 struct fsyscall_gtod_data_t fsyscall_gtod_data;
 
        }
 }
 
-static cycle_t itc_get_cycles(struct clocksource *cs)
+static u64 itc_get_cycles(struct clocksource *cs)
 {
        unsigned long lcycle, now, ret;
 
 }
 
 void update_vsyscall_old(struct timespec *wall, struct timespec *wtm,
-                        struct clocksource *c, u32 mult, cycle_t cycle_last)
+                        struct clocksource *c, u32 mult, u64 cycle_last)
 {
        write_seqcount_begin(&fsyscall_gtod_data.seq);
 
 
 
 extern unsigned long sn_rtc_cycles_per_second;
 
-static cycle_t read_sn2(struct clocksource *cs)
+static u64 read_sn2(struct clocksource *cs)
 {
-       return (cycle_t)readq(RTC_COUNTER_ADDR);
+       return (u64)readq(RTC_COUNTER_ADDR);
 }
 
 static struct clocksource clocksource_sn2 = {
 
 
 /***************************************************************************/
 
-static cycle_t m68328_read_clk(struct clocksource *cs)
+static u64 m68328_read_clk(struct clocksource *cs)
 {
        unsigned long flags;
        u32 cycles;
 
 #define DMA_DTMR_CLK_DIV_16    (2 << 1)
 #define DMA_DTMR_ENABLE                (1 << 0)
 
-static cycle_t cf_dt_get_cycles(struct clocksource *cs)
+static u64 cf_dt_get_cycles(struct clocksource *cs)
 {
        return __raw_readl(DTCN0);
 }
 
 
 /***************************************************************************/
 
-static cycle_t pit_read_clk(struct clocksource *cs)
+static u64 pit_read_clk(struct clocksource *cs)
 {
        unsigned long flags;
        u32 cycles;
 
        .handler = mcfslt_tick,
 };
 
-static cycle_t mcfslt_read_clk(struct clocksource *cs)
+static u64 mcfslt_read_clk(struct clocksource *cs)
 {
        unsigned long flags;
        u32 cycles, scnt;
 
 
 /***************************************************************************/
 
-static cycle_t mcftmr_read_clk(struct clocksource *cs)
+static u64 mcftmr_read_clk(struct clocksource *cs)
 {
        unsigned long flags;
        u32 cycles;
 
        return read_fn(timer_baseaddr + TCR1);
 }
 
-static cycle_t xilinx_read(struct clocksource *cs)
+static u64 xilinx_read(struct clocksource *cs)
 {
        /* reading actual value of timer 1 */
-       return (cycle_t)xilinx_clock_read();
+       return (u64)xilinx_clock_read();
 }
 
 static struct timecounter xilinx_tc = {
        .cc = NULL,
 };
 
-static cycle_t xilinx_cc_read(const struct cyclecounter *cc)
+static u64 xilinx_cc_read(const struct cyclecounter *cc)
 {
        return xilinx_read(NULL);
 }
 
 /* 32kHz clock enabled and detected */
 #define CNTR_OK (SYS_CNTRL_E0 | SYS_CNTRL_32S)
 
-static cycle_t au1x_counter1_read(struct clocksource *cs)
+static u64 au1x_counter1_read(struct clocksource *cs)
 {
        return alchemy_rdsys(AU1000_SYS_RTCREAD);
 }
 
        local_irq_restore(flags);
 }
 
-static cycle_t octeon_cvmcount_read(struct clocksource *cs)
+static u64 octeon_cvmcount_read(struct clocksource *cs)
 {
        return read_c0_cvmcount();
 }
 
 
 static uint16_t jz4740_jiffies_per_tick;
 
-static cycle_t jz4740_clocksource_read(struct clocksource *cs)
+static u64 jz4740_clocksource_read(struct clocksource *cs)
 {
        return jz4740_timer_get_count(TIMER_CLOCKSOURCE);
 }
 
        struct txx9_tmr_reg __iomem *tmrptr;
 };
 
-static cycle_t txx9_cs_read(struct clocksource *cs)
+static u64 txx9_cs_read(struct clocksource *cs)
 {
        struct txx9_clocksource *txx9_cs =
                container_of(cs, struct txx9_clocksource, cs);
 
 
 #include <asm/sibyte/sb1250.h>
 
-static cycle_t bcm1480_hpt_read(struct clocksource *cs)
+static u64 bcm1480_hpt_read(struct clocksource *cs)
 {
-       return (cycle_t) __raw_readq(IOADDR(A_SCD_ZBBUS_CYCLE_COUNT));
+       return (u64) __raw_readq(IOADDR(A_SCD_ZBBUS_CYCLE_COUNT));
 }
 
 struct clocksource bcm1480_clocksource = {
 
 #include <asm/dec/ioasic.h>
 #include <asm/dec/ioasic_addrs.h>
 
-static cycle_t dec_ioasic_hpt_read(struct clocksource *cs)
+static u64 dec_ioasic_hpt_read(struct clocksource *cs)
 {
        return ioasic_read(IO_REG_FCTR);
 }
 
 
 #include <asm/time.h>
 
-static cycle_t c0_hpt_read(struct clocksource *cs)
+static u64 c0_hpt_read(struct clocksource *cs)
 {
        return read_c0_count();
 }
 
  * The HPT is free running from SB1250_HPT_VALUE down to 0 then starts over
  * again.
  */
-static inline cycle_t sb1250_hpt_get_cycles(void)
+static inline u64 sb1250_hpt_get_cycles(void)
 {
        unsigned int count;
        void __iomem *addr;
        return SB1250_HPT_VALUE - count;
 }
 
-static cycle_t sb1250_hpt_read(struct clocksource *cs)
+static u64 sb1250_hpt_read(struct clocksource *cs)
 {
        return sb1250_hpt_get_cycles();
 }
 
        ls1x_pwmtimer_restart();
 }
 
-static cycle_t ls1x_clocksource_read(struct clocksource *cs)
+static u64 ls1x_clocksource_read(struct clocksource *cs)
 {
        unsigned long flags;
        int count;
 
        raw_spin_unlock_irqrestore(&ls1x_timer_lock, flags);
 
-       return (cycle_t) (jifs * ls1x_jiffies_per_tick) + count;
+       return (u64) (jifs * ls1x_jiffies_per_tick) + count;
 }
 
 static struct clocksource ls1x_clocksource = {
 
  * to just read by itself. So use jiffies to emulate a free
  * running counter:
  */
-static cycle_t mfgpt_read(struct clocksource *cs)
+static u64 mfgpt_read(struct clocksource *cs)
 {
        unsigned long flags;
        int count;
 
        raw_spin_unlock_irqrestore(&mfgpt_lock, flags);
 
-       return (cycle_t) (jifs * COMPARE) + count;
+       return (u64) (jifs * COMPARE) + count;
 }
 
 static struct clocksource clocksource_mfgpt = {
 
        pr_info("hpet clock event device register\n");
 }
 
-static cycle_t hpet_read_counter(struct clocksource *cs)
+static u64 hpet_read_counter(struct clocksource *cs)
 {
-       return (cycle_t)hpet_read(HPET_COUNTER);
+       return (u64)hpet_read(HPET_COUNTER);
 }
 
 static void hpet_suspend(struct clocksource *cs)
 
        unsigned int count, start;
        unsigned char secs1, secs2, ctrl;
        int secs;
-       cycle_t giccount = 0, gicstart = 0;
+       u64 giccount = 0, gicstart = 0;
 
 #if defined(CONFIG_KVM_GUEST) && CONFIG_KVM_GUEST_TIMER_FREQ
        mips_hpt_frequency = CONFIG_KVM_GUEST_TIMER_FREQ * 1000000;
 
        return IRQ_TIMER;
 }
 
-static cycle_t nlm_get_pic_timer(struct clocksource *cs)
+static u64 nlm_get_pic_timer(struct clocksource *cs)
 {
        uint64_t picbase = nlm_get_node(0)->picbase;
 
        return ~nlm_pic_read_timer(picbase, PIC_CLOCK_TIMER);
 }
 
-static cycle_t nlm_get_pic_timer32(struct clocksource *cs)
+static u64 nlm_get_pic_timer32(struct clocksource *cs)
 {
        uint64_t picbase = nlm_get_node(0)->picbase;
 
 
        setup_irq(irq, &hub_rt_irqaction);
 }
 
-static cycle_t hub_rt_read(struct clocksource *cs)
+static u64 hub_rt_read(struct clocksource *cs)
 {
        return REMOTE_HUB_L(cputonasid(0), PI_RT_COUNT);
 }
 
 #include <asm/timex.h>
 #include "internal.h"
 
-static cycle_t mn10300_read(struct clocksource *cs)
+static u64 mn10300_read(struct clocksource *cs)
 {
        return read_timestamp_counter();
 }
 
        return count;
 }
 
-static cycle_t nios2_timer_read(struct clocksource *cs)
+static u64 nios2_timer_read(struct clocksource *cs)
 {
        struct nios2_clocksource *nios2_cs = to_nios2_clksource(cs);
        unsigned long flags;
 
  * is 32 bits wide and runs at the CPU clock frequency.
  */
 
-static cycle_t openrisc_timer_read(struct clocksource *cs)
+static u64 openrisc_timer_read(struct clocksource *cs)
 {
-       return (cycle_t) mfspr(SPR_TTCR);
+       return (u64) mfspr(SPR_TTCR);
 }
 
 static struct clocksource openrisc_timer = {
 
 
 /* clock source code */
 
-static cycle_t notrace read_cr16(struct clocksource *cs)
+static u64 notrace read_cr16(struct clocksource *cs)
 {
        return get_cycles();
 }
 
 #include <linux/clockchips.h>
 #include <linux/timekeeper_internal.h>
 
-static cycle_t rtc_read(struct clocksource *);
+static u64 rtc_read(struct clocksource *);
 static struct clocksource clocksource_rtc = {
        .name         = "rtc",
        .rating       = 400,
        .read         = rtc_read,
 };
 
-static cycle_t timebase_read(struct clocksource *);
+static u64 timebase_read(struct clocksource *);
 static struct clocksource clocksource_timebase = {
        .name         = "timebase",
        .rating       = 400,
 }
 
 /* clocksource code */
-static cycle_t rtc_read(struct clocksource *cs)
+static u64 rtc_read(struct clocksource *cs)
 {
-       return (cycle_t)get_rtc();
+       return (u64)get_rtc();
 }
 
-static cycle_t timebase_read(struct clocksource *cs)
+static u64 timebase_read(struct clocksource *cs)
 {
-       return (cycle_t)get_tb();
+       return (u64)get_tb();
 }
 
 void update_vsyscall_old(struct timespec *wall_time, struct timespec *wtm,
-                        struct clocksource *clock, u32 mult, cycle_t cycle_last)
+                        struct clocksource *clock, u32 mult, u64 cycle_last)
 {
        u64 new_tb_to_xs, new_stamp_xsec;
        u32 frac_sec;
 
        tod_to_timeval(clock - TOD_UNIX_EPOCH, ts);
 }
 
-static cycle_t read_tod_clock(struct clocksource *cs)
+static u64 read_tod_clock(struct clocksource *cs)
 {
        unsigned long long now, adj;
 
 
        return offset;
 }
 
-static cycle_t timer_cs_read(struct clocksource *cs)
+static u64 timer_cs_read(struct clocksource *cs)
 {
        unsigned int seq, offset;
        u64 cycles;
 
 }
 EXPORT_SYMBOL(udelay);
 
-static cycle_t clocksource_tick_read(struct clocksource *cs)
+static u64 clocksource_tick_read(struct clocksource *cs)
 {
        return tick_ops->get_tick();
 }
 
        return IRQ_HANDLED;
 }
 
-static cycle_t timer_read(struct clocksource *cs)
+static u64 timer_read(struct clocksource *cs)
 {
        return os_nsecs() / TIMER_MULTIPLIER;
 }
 
        .set_state_oneshot      = puv3_osmr0_shutdown,
 };
 
-static cycle_t puv3_read_oscr(struct clocksource *cs)
+static u64 puv3_read_oscr(struct clocksource *cs)
 {
        return readl(OST_OSCR);
 }
 
        return (const struct pvclock_vsyscall_time_info *)&pvclock_page;
 }
 
-static notrace cycle_t vread_pvclock(int *mode)
+static notrace u64 vread_pvclock(int *mode)
 {
        const struct pvclock_vcpu_time_info *pvti = &get_pvti0()->pvti;
-       cycle_t ret;
+       u64 ret;
        u64 last;
        u32 version;
 
 }
 #endif
 
-notrace static cycle_t vread_tsc(void)
+notrace static u64 vread_tsc(void)
 {
-       cycle_t ret = (cycle_t)rdtsc_ordered();
+       u64 ret = (u64)rdtsc_ordered();
        u64 last = gtod->cycle_last;
 
        if (likely(ret >= last))
 
        spinlock_t pvclock_gtod_sync_lock;
        bool use_master_clock;
        u64 master_kernel_ns;
-       cycle_t master_cycle_now;
+       u64 master_cycle_now;
        struct delayed_work kvmclock_update_work;
        struct delayed_work kvmclock_sync_work;
 
 
 #endif
 
 /* some helper functions for xen and kvm pv clock sources */
-cycle_t pvclock_clocksource_read(struct pvclock_vcpu_time_info *src);
+u64 pvclock_clocksource_read(struct pvclock_vcpu_time_info *src);
 u8 pvclock_read_flags(struct pvclock_vcpu_time_info *src);
 void pvclock_set_flags(u8 flags);
 unsigned long pvclock_tsc_khz(struct pvclock_vcpu_time_info *src);
 }
 
 static __always_inline
-cycle_t __pvclock_read_cycles(const struct pvclock_vcpu_time_info *src,
-                             u64 tsc)
+u64 __pvclock_read_cycles(const struct pvclock_vcpu_time_info *src, u64 tsc)
 {
        u64 delta = tsc - src->tsc_timestamp;
-       cycle_t offset = pvclock_scale_delta(delta, src->tsc_to_system_mul,
+       u64 offset = pvclock_scale_delta(delta, src->tsc_to_system_mul,
                                             src->tsc_shift);
        return src->system_time + offset;
 }
 
        return rdtsc();
 }
 
-extern struct system_counterval_t convert_art_to_tsc(cycle_t art);
+extern struct system_counterval_t convert_art_to_tsc(u64 art);
 
 extern void tsc_init(void);
 extern void mark_tsc_unstable(char *reason);
 
        unsigned seq;
 
        int vclock_mode;
-       cycle_t cycle_last;
-       cycle_t mask;
+       u64     cycle_last;
+       u64     mask;
        u32     mult;
        u32     shift;
 
 
 static int apbt_clocksource_register(void)
 {
        u64 start, now;
-       cycle_t t1;
+       u64 t1;
 
        /* Start the counter, use timer 2 as source, timer 0/1 for event */
        dw_apb_clocksource_start(clocksource_apbt);
 {
        int i, scale;
        u64 old, new;
-       cycle_t t1, t2;
+       u64 t1, t2;
        unsigned long khz = 0;
        u32 loop, shift;
 
 
        return 0;
 }
 
-static cycle_t read_hv_clock(struct clocksource *arg)
+static u64 read_hv_clock(struct clocksource *arg)
 {
-       cycle_t current_tick;
+       u64 current_tick;
        /*
         * Read the partition counter to get the current tick count. This count
         * is set to 0 when the partition is created and is incremented in
 
        { .lock = __ARCH_SPIN_LOCK_UNLOCKED, },
 };
 
-static cycle_t read_hpet(struct clocksource *cs)
+static u64 read_hpet(struct clocksource *cs)
 {
        unsigned long flags;
        union hpet_lock old, new;
         * Read HPET directly if in NMI.
         */
        if (in_nmi())
-               return (cycle_t)hpet_readl(HPET_COUNTER);
+               return (u64)hpet_readl(HPET_COUNTER);
 
        /*
         * Read the current state of the lock and HPET value atomically.
                WRITE_ONCE(hpet.value, new.value);
                arch_spin_unlock(&hpet.lock);
                local_irq_restore(flags);
-               return (cycle_t)new.value;
+               return (u64)new.value;
        }
        local_irq_restore(flags);
 
                new.lockval = READ_ONCE(hpet.lockval);
        } while ((new.value == old.value) && arch_spin_is_locked(&new.lock));
 
-       return (cycle_t)new.value;
+       return (u64)new.value;
 }
 #else
 /*
  * For UP or 32-bit.
  */
-static cycle_t read_hpet(struct clocksource *cs)
+static u64 read_hpet(struct clocksource *cs)
 {
-       return (cycle_t)hpet_readl(HPET_COUNTER);
+       return (u64)hpet_readl(HPET_COUNTER);
 }
 #endif
 
 static int hpet_clocksource_register(void)
 {
        u64 start, now;
-       cycle_t t1;
+       u64 t1;
 
        /* Start the counter */
        hpet_restart_counter();
 
 static int kvmclock __ro_after_init = 1;
 static int msr_kvm_system_time = MSR_KVM_SYSTEM_TIME;
 static int msr_kvm_wall_clock = MSR_KVM_WALL_CLOCK;
-static cycle_t kvm_sched_clock_offset;
+static u64 kvm_sched_clock_offset;
 
 static int parse_no_kvmclock(char *arg)
 {
        return -1;
 }
 
-static cycle_t kvm_clock_read(void)
+static u64 kvm_clock_read(void)
 {
        struct pvclock_vcpu_time_info *src;
-       cycle_t ret;
+       u64 ret;
        int cpu;
 
        preempt_disable_notrace();
        return ret;
 }
 
-static cycle_t kvm_clock_get_cycles(struct clocksource *cs)
+static u64 kvm_clock_get_cycles(struct clocksource *cs)
 {
        return kvm_clock_read();
 }
 
-static cycle_t kvm_sched_clock_read(void)
+static u64 kvm_sched_clock_read(void)
 {
        return kvm_clock_read() - kvm_sched_clock_offset;
 }
 
        return flags & valid_flags;
 }
 
-cycle_t pvclock_clocksource_read(struct pvclock_vcpu_time_info *src)
+u64 pvclock_clocksource_read(struct pvclock_vcpu_time_info *src)
 {
        unsigned version;
-       cycle_t ret;
+       u64 ret;
        u64 last;
        u8 flags;
 
 
  * checking the result of read_tsc() - cycle_last for being negative.
  * That works because CLOCKSOURCE_MASK(64) does not mask out any bit.
  */
-static cycle_t read_tsc(struct clocksource *cs)
+static u64 read_tsc(struct clocksource *cs)
 {
-       return (cycle_t)rdtsc_ordered();
+       return (u64)rdtsc_ordered();
 }
 
 /*
 /*
  * Convert ART to TSC given numerator/denominator found in detect_art()
  */
-struct system_counterval_t convert_art_to_tsc(cycle_t art)
+struct system_counterval_t convert_art_to_tsc(u64 art)
 {
        u64 tmp, res, rem;
 
 
 
        struct { /* extract of a clocksource struct */
                int vclock_mode;
-               cycle_t cycle_last;
-               cycle_t mask;
+               u64     cycle_last;
+               u64     mask;
                u32     mult;
                u32     shift;
        } clock;
 
 #ifdef CONFIG_X86_64
 
-static cycle_t read_tsc(void)
+static u64 read_tsc(void)
 {
-       cycle_t ret = (cycle_t)rdtsc_ordered();
+       u64 ret = (u64)rdtsc_ordered();
        u64 last = pvclock_gtod_data.clock.cycle_last;
 
        if (likely(ret >= last))
        return last;
 }
 
-static inline u64 vgettsc(cycle_t *cycle_now)
+static inline u64 vgettsc(u64 *cycle_now)
 {
        long v;
        struct pvclock_gtod_data *gtod = &pvclock_gtod_data;
        return v * gtod->clock.mult;
 }
 
-static int do_monotonic_boot(s64 *t, cycle_t *cycle_now)
+static int do_monotonic_boot(s64 *t, u64 *cycle_now)
 {
        struct pvclock_gtod_data *gtod = &pvclock_gtod_data;
        unsigned long seq;
 }
 
 /* returns true if host is using tsc clocksource */
-static bool kvm_get_time_and_clockread(s64 *kernel_ns, cycle_t *cycle_now)
+static bool kvm_get_time_and_clockread(s64 *kernel_ns, u64 *cycle_now)
 {
        /* checked again under seqlock below */
        if (pvclock_gtod_data.clock.vclock_mode != VCLOCK_TSC)
 
  * If we can't use the TSC, the kernel falls back to our lower-priority
  * "lguest_clock", where we read the time value given to us by the Host.
  */
-static cycle_t lguest_clock_read(struct clocksource *cs)
+static u64 lguest_clock_read(struct clocksource *cs)
 {
        unsigned long sec, nsec;
 
 
 
 #define RTC_NAME               "sgi_rtc"
 
-static cycle_t uv_read_rtc(struct clocksource *cs);
+static u64 uv_read_rtc(struct clocksource *cs);
 static int uv_rtc_next_event(unsigned long, struct clock_event_device *);
 static int uv_rtc_shutdown(struct clock_event_device *evt);
 
        .name           = RTC_NAME,
        .rating         = 299,
        .read           = uv_read_rtc,
-       .mask           = (cycle_t)UVH_RTC_REAL_TIME_CLOCK_MASK,
+       .mask           = (u64)UVH_RTC_REAL_TIME_CLOCK_MASK,
        .flags          = CLOCK_SOURCE_IS_CONTINUOUS,
 };
 
  * cachelines of it's own page.  This allows faster simultaneous reads
  * from a given socket.
  */
-static cycle_t uv_read_rtc(struct clocksource *cs)
+static u64 uv_read_rtc(struct clocksource *cs)
 {
        unsigned long offset;
 
        else
                offset = (uv_blade_processor_id() * L1_CACHE_BYTES) % PAGE_SIZE;
 
-       return (cycle_t)uv_read_local_mmr(UVH_RTC | offset);
+       return (u64)uv_read_local_mmr(UVH_RTC | offset);
 }
 
 /*
 
        return pvclock_tsc_khz(info);
 }
 
-cycle_t xen_clocksource_read(void)
+u64 xen_clocksource_read(void)
 {
         struct pvclock_vcpu_time_info *src;
-       cycle_t ret;
+       u64 ret;
 
        preempt_disable_notrace();
        src = &__this_cpu_read(xen_vcpu)->time;
        return ret;
 }
 
-static cycle_t xen_clocksource_get_cycles(struct clocksource *cs)
+static u64 xen_clocksource_get_cycles(struct clocksource *cs)
 {
        return xen_clocksource_read();
 }
 
 void xen_setup_timer(int cpu);
 void xen_setup_runstate_info(int cpu);
 void xen_teardown_timer(int cpu);
-cycle_t xen_clocksource_read(void);
+u64 xen_clocksource_read(void);
 void xen_setup_cpu_clockevents(void);
 void __init xen_init_time_ops(void);
 void __init xen_hvm_init_time_ops(void);
 
 unsigned long ccount_freq;             /* ccount Hz */
 EXPORT_SYMBOL(ccount_freq);
 
-static cycle_t ccount_read(struct clocksource *cs)
+static u64 ccount_read(struct clocksource *cs)
 {
-       return (cycle_t)get_ccount();
+       return (u64)get_ccount();
 }
 
 static u64 notrace ccount_sched_clock_read(void)
 
 #ifdef CONFIG_IA64
 static void __iomem *hpet_mctr;
 
-static cycle_t read_hpet(struct clocksource *cs)
+static u64 read_hpet(struct clocksource *cs)
 {
-       return (cycle_t)read_counter((void __iomem *)hpet_mctr);
+       return (u64)read_counter((void __iomem *)hpet_mctr);
 }
 
 static struct clocksource clocksource_hpet = {
 
        return v2;
 }
 
-static cycle_t acpi_pm_read(struct clocksource *cs)
+static u64 acpi_pm_read(struct clocksource *cs)
 {
-       return (cycle_t)read_pmtmr();
+       return (u64)read_pmtmr();
 }
 
 static struct clocksource clocksource_acpi_pm = {
        .name           = "acpi_pm",
        .rating         = 200,
        .read           = acpi_pm_read,
-       .mask           = (cycle_t)ACPI_PM_MASK,
+       .mask           = (u64)ACPI_PM_MASK,
        .flags          = CLOCK_SOURCE_IS_CONTINUOUS,
 };
 
 }
 __setup("acpi_pm_good", acpi_pm_good_setup);
 
-static cycle_t acpi_pm_read_slow(struct clocksource *cs)
+static u64 acpi_pm_read_slow(struct clocksource *cs)
 {
-       return (cycle_t)acpi_pm_read_verified();
+       return (u64)acpi_pm_read_verified();
 }
 
 static inline void acpi_pm_need_workaround(void)
  */
 static int verify_pmtmr_rate(void)
 {
-       cycle_t value1, value2;
+       u64 value1, value2;
        unsigned long count, delta;
 
        mach_prepare_counter();
 
 static int __init init_acpi_pm_clocksource(void)
 {
-       cycle_t value1, value2;
+       u64 value1, value2;
        unsigned int i, j = 0;
 
        if (!pmtmr_ioport)
 
 
 #ifdef CONFIG_ARC_TIMERS_64BIT
 
-static cycle_t arc_read_gfrc(struct clocksource *cs)
+static u64 arc_read_gfrc(struct clocksource *cs)
 {
        unsigned long flags;
        u32 l, h;
 
        local_irq_restore(flags);
 
-       return (((cycle_t)h) << 32) | l;
+       return (((u64)h) << 32) | l;
 }
 
 static struct clocksource arc_counter_gfrc = {
 #define AUX_RTC_LOW    0x104
 #define AUX_RTC_HIGH   0x105
 
-static cycle_t arc_read_rtc(struct clocksource *cs)
+static u64 arc_read_rtc(struct clocksource *cs)
 {
        unsigned long status;
        u32 l, h;
                status = read_aux_reg(AUX_RTC_CTRL);
        } while (!(status & _BITUL(31)));
 
-       return (((cycle_t)h) << 32) | l;
+       return (((u64)h) << 32) | l;
 }
 
 static struct clocksource arc_counter_rtc = {
  * 32bit TIMER1 to keep counting monotonically and wraparound
  */
 
-static cycle_t arc_read_timer1(struct clocksource *cs)
+static u64 arc_read_timer1(struct clocksource *cs)
 {
-       return (cycle_t) read_aux_reg(ARC_REG_TIMER1_CNT);
+       return (u64) read_aux_reg(ARC_REG_TIMER1_CNT);
 }
 
 static struct clocksource arc_counter_timer1 = {
 
  */
 u64 (*arch_timer_read_counter)(void) = arch_counter_get_cntvct;
 
-static cycle_t arch_counter_read(struct clocksource *cs)
+static u64 arch_counter_read(struct clocksource *cs)
 {
        return arch_timer_read_counter();
 }
 
-static cycle_t arch_counter_read_cc(const struct cyclecounter *cc)
+static u64 arch_counter_read_cc(const struct cyclecounter *cc)
 {
        return arch_timer_read_counter();
 }
 
        return 0;
 }
 
-static cycle_t gt_clocksource_read(struct clocksource *cs)
+static u64 gt_clocksource_read(struct clocksource *cs)
 {
        return gt_counter_read();
 }
 
  *
  * returns: Current timer counter register value
  **/
-static cycle_t __ttc_clocksource_read(struct clocksource *cs)
+static u64 __ttc_clocksource_read(struct clocksource *cs)
 {
        struct ttc_timer *timer = &to_ttc_timer_clksrc(cs)->ttc;
 
-       return (cycle_t)readl_relaxed(timer->base_addr +
+       return (u64)readl_relaxed(timer->base_addr +
                                TTC_COUNT_VAL_OFFSET);
 }
 
 
 
 static void __iomem *clksrc_dbx500_timer_base;
 
-static cycle_t notrace clksrc_dbx500_prcmu_read(struct clocksource *cs)
+static u64 notrace clksrc_dbx500_prcmu_read(struct clocksource *cs)
 {
        void __iomem *base = clksrc_dbx500_timer_base;
        u32 count, count2;
 
        dw_apb_clocksource_read(dw_cs);
 }
 
-static cycle_t __apbt_read_clocksource(struct clocksource *cs)
+static u64 __apbt_read_clocksource(struct clocksource *cs)
 {
        u32 current_count;
        struct dw_apb_clocksource *dw_cs =
        current_count = apbt_readl_relaxed(&dw_cs->timer,
                                        APBTMR_N_CURRENT_VALUE);
 
-       return (cycle_t)~current_count;
+       return (u64)~current_count;
 }
 
 static void apbt_restart_clocksource(struct clocksource *cs)
  *
  * @dw_cs:     The clocksource to read.
  */
-cycle_t dw_apb_clocksource_read(struct dw_apb_clocksource *dw_cs)
+u64 dw_apb_clocksource_read(struct dw_apb_clocksource *dw_cs)
 {
-       return (cycle_t)~apbt_readl(&dw_cs->timer, APBTMR_N_CURRENT_VALUE);
+       return (u64)~apbt_readl(&dw_cs->timer, APBTMR_N_CURRENT_VALUE);
 }
 
        clk_disable_unprepare(p->clk);
 }
 
-static cycle_t em_sti_count(struct em_sti_priv *p)
+static u64 em_sti_count(struct em_sti_priv *p)
 {
-       cycle_t ticks;
+       u64 ticks;
        unsigned long flags;
 
        /* the STI hardware buffers the 48-bit count, but to
         * Always read STI_COUNT_H before STI_COUNT_L.
         */
        raw_spin_lock_irqsave(&p->lock, flags);
-       ticks = (cycle_t)(em_sti_read(p, STI_COUNT_H) & 0xffff) << 32;
+       ticks = (u64)(em_sti_read(p, STI_COUNT_H) & 0xffff) << 32;
        ticks |= em_sti_read(p, STI_COUNT_L);
        raw_spin_unlock_irqrestore(&p->lock, flags);
 
        return ticks;
 }
 
-static cycle_t em_sti_set_next(struct em_sti_priv *p, cycle_t next)
+static u64 em_sti_set_next(struct em_sti_priv *p, u64 next)
 {
        unsigned long flags;
 
        return container_of(cs, struct em_sti_priv, cs);
 }
 
-static cycle_t em_sti_clocksource_read(struct clocksource *cs)
+static u64 em_sti_clocksource_read(struct clocksource *cs)
 {
        return em_sti_count(cs_to_em_sti(cs));
 }
                                   struct clock_event_device *ced)
 {
        struct em_sti_priv *p = ced_to_em_sti(ced);
-       cycle_t next;
+       u64 next;
        int safe;
 
        next = em_sti_set_next(p, em_sti_count(p) + delta);
 
                hi2 = readl_relaxed(reg_base + EXYNOS4_MCT_G_CNT_U);
        } while (hi != hi2);
 
-       return ((cycle_t)hi << 32) | lo;
+       return ((u64)hi << 32) | lo;
 }
 
 /**
        return readl_relaxed(reg_base + EXYNOS4_MCT_G_CNT_L);
 }
 
-static cycle_t exynos4_frc_read(struct clocksource *cs)
+static u64 exynos4_frc_read(struct clocksource *cs)
 {
        return exynos4_read_count_32();
 }
 static void exynos4_mct_comp0_start(bool periodic, unsigned long cycles)
 {
        unsigned int tcon;
-       cycle_t comp_cycle;
+       u64 comp_cycle;
 
        tcon = readl_relaxed(reg_base + EXYNOS4_MCT_G_TCON);
 
 
        return container_of(cs, struct timer16_priv, cs);
 }
 
-static cycle_t timer16_clocksource_read(struct clocksource *cs)
+static u64 timer16_clocksource_read(struct clocksource *cs)
 {
        struct timer16_priv *p = cs_to_priv(cs);
        unsigned long raw, value;
 
        return container_of(cs, struct tpu_priv, cs);
 }
 
-static cycle_t tpu_clocksource_read(struct clocksource *cs)
+static u64 tpu_clocksource_read(struct clocksource *cs)
 {
        struct tpu_priv *p = cs_to_priv(cs);
        unsigned long flags;
 
  * to just read by itself. So use jiffies to emulate a free
  * running counter:
  */
-static cycle_t i8253_read(struct clocksource *cs)
+static u64 i8253_read(struct clocksource *cs)
 {
        static int old_count;
        static u32 old_jifs;
 
        count = (PIT_LATCH - 1) - count;
 
-       return (cycle_t)(jifs * PIT_LATCH) + count;
+       return (u64)(jifs * PIT_LATCH) + count;
 }
 
 static struct clocksource i8253_cs = {
 
        return seclo * NSEC_PER_SEC + nsec;
 }
 
-static cycle_t jcore_clocksource_read(struct clocksource *cs)
+static u64 jcore_clocksource_read(struct clocksource *cs)
 {
        return jcore_sched_clock_read();
 }
 
        return 0;
 }
 
-static cycle_t metag_clocksource_read(struct clocksource *cs)
+static u64 metag_clocksource_read(struct clocksource *cs)
 {
        return __core_reg_get(TXTIMER);
 }
 
        return 0;
 }
 
-static cycle_t gic_hpt_read(struct clocksource *cs)
+static u64 gic_hpt_read(struct clocksource *cs)
 {
        return gic_read_count();
 }
 
        return container_of(c, struct clocksource_mmio, clksrc);
 }
 
-cycle_t clocksource_mmio_readl_up(struct clocksource *c)
+u64 clocksource_mmio_readl_up(struct clocksource *c)
 {
-       return (cycle_t)readl_relaxed(to_mmio_clksrc(c)->reg);
+       return (u64)readl_relaxed(to_mmio_clksrc(c)->reg);
 }
 
-cycle_t clocksource_mmio_readl_down(struct clocksource *c)
+u64 clocksource_mmio_readl_down(struct clocksource *c)
 {
-       return ~(cycle_t)readl_relaxed(to_mmio_clksrc(c)->reg) & c->mask;
+       return ~(u64)readl_relaxed(to_mmio_clksrc(c)->reg) & c->mask;
 }
 
-cycle_t clocksource_mmio_readw_up(struct clocksource *c)
+u64 clocksource_mmio_readw_up(struct clocksource *c)
 {
-       return (cycle_t)readw_relaxed(to_mmio_clksrc(c)->reg);
+       return (u64)readw_relaxed(to_mmio_clksrc(c)->reg);
 }
 
-cycle_t clocksource_mmio_readw_down(struct clocksource *c)
+u64 clocksource_mmio_readw_down(struct clocksource *c)
 {
-       return ~(cycle_t)readw_relaxed(to_mmio_clksrc(c)->reg) & c->mask;
+       return ~(u64)readw_relaxed(to_mmio_clksrc(c)->reg) & c->mask;
 }
 
 /**
  */
 int __init clocksource_mmio_init(void __iomem *base, const char *name,
        unsigned long hz, int rating, unsigned bits,
-       cycle_t (*read)(struct clocksource *))
+       u64 (*read)(struct clocksource *))
 {
        struct clocksource_mmio *cs;
 
 
                     HW_TIMROT_TIMCTRLn(0) + STMP_OFFSET_REG_CLR);
 }
 
-static cycle_t timrotv1_get_cycles(struct clocksource *cs)
+static u64 timrotv1_get_cycles(struct clocksource *cs)
 {
        return ~((__raw_readl(mxs_timrot_base + HW_TIMROT_TIMCOUNTn(1))
                        & 0xffff0000) >> 16);
 
 
 static void __iomem *source_base;
 
-static notrace cycle_t msm_read_timer_count(struct clocksource *cs)
+static notrace u64 msm_read_timer_count(struct clocksource *cs)
 {
        return readl_relaxed(source_base + TIMER_COUNT_VAL);
 }
 
        samsung_time_start(pwm.source_id, true);
 }
 
-static cycle_t notrace samsung_clocksource_read(struct clocksource *c)
+static u64 notrace samsung_clocksource_read(struct clocksource *c)
 {
        return ~readl_relaxed(pwm.source_reg);
 }
 
 /* The base timer frequency, * 27 if selected */
 #define HRT_FREQ   1000000
 
-static cycle_t read_hrt(struct clocksource *cs)
+static u64 read_hrt(struct clocksource *cs)
 {
        /* Read the timer value */
-       return (cycle_t) inl(scx200_cb_base + SCx200_TIMER_OFFSET);
+       return (u64) inl(scx200_cb_base + SCx200_TIMER_OFFSET);
 }
 
 static struct clocksource cs_hrt = {
 
        return container_of(cs, struct sh_cmt_channel, cs);
 }
 
-static cycle_t sh_cmt_clocksource_read(struct clocksource *cs)
+static u64 sh_cmt_clocksource_read(struct clocksource *cs)
 {
        struct sh_cmt_channel *ch = cs_to_sh_cmt(cs);
        unsigned long flags, raw;
 
        return container_of(cs, struct sh_tmu_channel, cs);
 }
 
-static cycle_t sh_tmu_clocksource_read(struct clocksource *cs)
+static u64 sh_tmu_clocksource_read(struct clocksource *cs)
 {
        struct sh_tmu_channel *ch = cs_to_sh_tmu(cs);
 
 
 
 static void __iomem *tcaddr;
 
-static cycle_t tc_get_cycles(struct clocksource *cs)
+static u64 tc_get_cycles(struct clocksource *cs)
 {
        unsigned long   flags;
        u32             lower, upper;
        return (upper << 16) | lower;
 }
 
-static cycle_t tc_get_cycles32(struct clocksource *cs)
+static u64 tc_get_cycles32(struct clocksource *cs)
 {
        return __raw_readl(tcaddr + ATMEL_TC_REG(0, CV));
 }
 
        writel(value, base + 0x20 * gpt_id + offset);
 }
 
-static cycle_t notrace
+static u64 notrace
 pistachio_clocksource_read_cycles(struct clocksource *cs)
 {
        struct pistachio_clocksource *pcs = to_pistachio_clocksource(cs);
        counter = gpt_readl(pcs->base, TIMER_CURRENT_VALUE, 0);
        raw_spin_unlock_irqrestore(&pcs->lock, flags);
 
-       return (cycle_t)~counter;
+       return (u64)~counter;
 }
 
 static u64 notrace pistachio_read_sched_clock(void)
 
 }
 
 /* read 64-bit timer counter */
-static cycle_t sirfsoc_timer_read(struct clocksource *cs)
+static u64 sirfsoc_timer_read(struct clocksource *cs)
 {
        u64 cycles;
 
 
  * Clocksource:  just a monotonic counter of MCK/16 cycles.
  * We don't care whether or not PIT irqs are enabled.
  */
-static cycle_t read_pit_clk(struct clocksource *cs)
+static u64 read_pit_clk(struct clocksource *cs)
 {
        struct pit_data *data = clksrc_to_pit_data(cs);
        unsigned long flags;
 
        return IRQ_NONE;
 }
 
-static cycle_t read_clk32k(struct clocksource *cs)
+static u64 read_clk32k(struct clocksource *cs)
 {
        return read_CRTR();
 }
 
        return 0;
 }
 
-static cycle_t nps_clksrc_read(struct clocksource *clksrc)
+static u64 nps_clksrc_read(struct clocksource *clksrc)
 {
        int cluster = raw_smp_processor_id() >> NPS_CLUSTER_OFFSET;
 
-       return (cycle_t)ioread32be(nps_msu_reg_low_addr[cluster]);
+       return (u64)ioread32be(nps_msu_reg_low_addr[cluster]);
 }
 
 static int __init nps_setup_clocksource(struct device_node *node)
 
 }
 
 /* read 64-bit timer counter */
-static cycle_t notrace sirfsoc_timer_read(struct clocksource *cs)
+static u64 notrace sirfsoc_timer_read(struct clocksource *cs)
 {
        u64 cycles;
 
 
        return IRQ_HANDLED;
 }
 
-static cycle_t sun5i_clksrc_read(struct clocksource *clksrc)
+static u64 sun5i_clksrc_read(struct clocksource *clksrc)
 {
        struct sun5i_timer_clksrc *cs = to_sun5i_timer_clksrc(clksrc);
 
 
        return container_of(cs, struct ti_32k, cs);
 }
 
-static cycle_t notrace ti_32k_read_cycles(struct clocksource *cs)
+static u64 notrace ti_32k_read_cycles(struct clocksource *cs)
 {
        struct ti_32k *ti = to_ti_32k(cs);
 
-       return (cycle_t)readl_relaxed(ti->counter);
+       return (u64)readl_relaxed(ti->counter);
 }
 
 static struct ti_32k ti_32k_timer = {
 
 
 static void __iomem *regbase;
 
-static cycle_t vt8500_timer_read(struct clocksource *cs)
+static u64 vt8500_timer_read(struct clocksource *cs)
 {
        int loops = msecs_to_loops(10);
        writel(3, regbase + TIMER_CTRL_VAL);
                                    struct clock_event_device *evt)
 {
        int loops = msecs_to_loops(10);
-       cycle_t alarm = clocksource.read(&clocksource) + cycles;
+       u64 alarm = clocksource.read(&clocksource) + cycles;
        while ((readl(regbase + TIMER_AS_VAL) & TIMER_MATCH_W_ACTIVE)
                                                && --loops)
                cpu_relax();
 
 EXPORT_SYMBOL_GPL(hv_do_hypercall);
 
 #ifdef CONFIG_X86_64
-static cycle_t read_hv_clock_tsc(struct clocksource *arg)
+static u64 read_hv_clock_tsc(struct clocksource *arg)
 {
-       cycle_t current_tick;
+       u64 current_tick;
        struct ms_hyperv_tsc_page *tsc_pg = hv_context.tsc_page;
 
        if (tsc_pg->tsc_sequence != 0) {
                 */
 
                while (1) {
-                       cycle_t tmp;
+                       u64 tmp;
                        u32 sequence = tsc_pg->tsc_sequence;
                        u64 cur_tsc;
                        u64 scale = tsc_pg->tsc_scale;
 static int hv_ce_set_next_event(unsigned long delta,
                                struct clock_event_device *evt)
 {
-       cycle_t current_tick;
+       u64 current_tick;
 
        WARN_ON(!clockevent_state_oneshot(evt));
 
 
 }
 
 #ifdef CONFIG_CLKSRC_MIPS_GIC
-cycle_t gic_read_count(void)
+u64 gic_read_count(void)
 {
        unsigned int hi, hi2, lo;
 
        if (mips_cm_is64)
-               return (cycle_t)gic_read(GIC_REG(SHARED, GIC_SH_COUNTER));
+               return (u64)gic_read(GIC_REG(SHARED, GIC_SH_COUNTER));
 
        do {
                hi = gic_read32(GIC_REG(SHARED, GIC_SH_COUNTER_63_32));
                hi2 = gic_read32(GIC_REG(SHARED, GIC_SH_COUNTER_63_32));
        } while (hi2 != hi);
 
-       return (((cycle_t) hi) << 32) + lo;
+       return (((u64) hi) << 32) + lo;
 }
 
 unsigned int gic_get_count_width(void)
        return bits;
 }
 
-void gic_write_compare(cycle_t cnt)
+void gic_write_compare(u64 cnt)
 {
        if (mips_cm_is64) {
                gic_write(GIC_REG(VPE_LOCAL, GIC_VPE_COMPARE), cnt);
        }
 }
 
-void gic_write_cpu_compare(cycle_t cnt, int cpu)
+void gic_write_cpu_compare(u64 cnt, int cpu)
 {
        unsigned long flags;
 
        local_irq_restore(flags);
 }
 
-cycle_t gic_read_compare(void)
+u64 gic_read_compare(void)
 {
        unsigned int hi, lo;
 
        if (mips_cm_is64)
-               return (cycle_t)gic_read(GIC_REG(VPE_LOCAL, GIC_VPE_COMPARE));
+               return (u64)gic_read(GIC_REG(VPE_LOCAL, GIC_VPE_COMPARE));
 
        hi = gic_read32(GIC_REG(VPE_LOCAL, GIC_VPE_COMPARE_HI));
        lo = gic_read32(GIC_REG(VPE_LOCAL, GIC_VPE_COMPARE_LO));
 
-       return (((cycle_t) hi) << 32) + lo;
+       return (((u64) hi) << 32) + lo;
 }
 
 void gic_start_count(void)
 
 #include "xgbe.h"
 #include "xgbe-common.h"
 
-static cycle_t xgbe_cc_read(const struct cyclecounter *cc)
+static u64 xgbe_cc_read(const struct cyclecounter *cc)
 {
        struct xgbe_prv_data *pdata = container_of(cc,
                                                   struct xgbe_prv_data,
 
 }
 
 /* Read the PHC */
-static cycle_t bnx2x_cyclecounter_read(const struct cyclecounter *cc)
+static u64 bnx2x_cyclecounter_read(const struct cyclecounter *cc)
 {
        struct bnx2x *bp = container_of(cc, struct bnx2x, cyclecounter);
        int port = BP_PORT(bp);
 
  * cyclecounter structure used to construct a ns counter from the
  * arbitrary fixed point registers
  */
-static cycle_t fec_ptp_read(const struct cyclecounter *cc)
+static u64 fec_ptp_read(const struct cyclecounter *cc)
 {
        struct fec_enet_private *fep =
                container_of(cc, struct fec_enet_private, cc);
 
 /**
  * e1000e_sanitize_systim - sanitize raw cycle counter reads
  * @hw: pointer to the HW structure
- * @systim: cycle_t value read, sanitized and returned
+ * @systim: time value read, sanitized and returned
  *
  * Errata for 82574/82583 possible bad bits read from SYSTIMH/L:
  * check to see that the time is incrementing at a reasonable
  * rate and is a multiple of incvalue.
  **/
-static cycle_t e1000e_sanitize_systim(struct e1000_hw *hw, cycle_t systim)
+static u64 e1000e_sanitize_systim(struct e1000_hw *hw, u64 systim)
 {
        u64 time_delta, rem, temp;
-       cycle_t systim_next;
+       u64 systim_next;
        u32 incvalue;
        int i;
 
        incvalue = er32(TIMINCA) & E1000_TIMINCA_INCVALUE_MASK;
        for (i = 0; i < E1000_MAX_82574_SYSTIM_REREADS; i++) {
                /* latch SYSTIMH on read of SYSTIML */
-               systim_next = (cycle_t)er32(SYSTIML);
-               systim_next |= (cycle_t)er32(SYSTIMH) << 32;
+               systim_next = (u64)er32(SYSTIML);
+               systim_next |= (u64)er32(SYSTIMH) << 32;
 
                time_delta = systim_next - systim;
                temp = time_delta;
  * e1000e_cyclecounter_read - read raw cycle counter (used by time counter)
  * @cc: cyclecounter structure
  **/
-static cycle_t e1000e_cyclecounter_read(const struct cyclecounter *cc)
+static u64 e1000e_cyclecounter_read(const struct cyclecounter *cc)
 {
        struct e1000_adapter *adapter = container_of(cc, struct e1000_adapter,
                                                     cc);
        struct e1000_hw *hw = &adapter->hw;
        u32 systimel, systimeh;
-       cycle_t systim;
+       u64 systim;
        /* SYSTIMH latching upon SYSTIML read does not work well.
         * This means that if SYSTIML overflows after we read it but before
         * we read SYSTIMH, the value of SYSTIMH has been incremented and we
                        systimel = systimel_2;
                }
        }
-       systim = (cycle_t)systimel;
-       systim |= (cycle_t)systimeh << 32;
+       systim = (u64)systimel;
+       systim |= (u64)systimeh << 32;
 
        if (adapter->flags2 & FLAG2_CHECK_SYSTIM_OVERFLOW)
                systim = e1000e_sanitize_systim(hw, systim);
 
        unsigned long flags;
        int i;
        u32 tsync_ctrl;
-       cycle_t dev_cycles;
-       cycle_t sys_cycles;
+       u64 dev_cycles;
+       u64 sys_cycles;
 
        tsync_ctrl = er32(TSYNCTXCTL);
        tsync_ctrl |= E1000_TSYNCTXCTL_START_SYNC |
 
 static void igb_ptp_tx_hwtstamp(struct igb_adapter *adapter);
 
 /* SYSTIM read access for the 82576 */
-static cycle_t igb_ptp_read_82576(const struct cyclecounter *cc)
+static u64 igb_ptp_read_82576(const struct cyclecounter *cc)
 {
        struct igb_adapter *igb = container_of(cc, struct igb_adapter, cc);
        struct e1000_hw *hw = &igb->hw;
 }
 
 /* SYSTIM read access for the 82580 */
-static cycle_t igb_ptp_read_82580(const struct cyclecounter *cc)
+static u64 igb_ptp_read_82580(const struct cyclecounter *cc)
 {
        struct igb_adapter *igb = container_of(cc, struct igb_adapter, cc);
        struct e1000_hw *hw = &igb->hw;
 
  * result of SYSTIME is 32bits of "billions of cycles" and 32 bits of
  * "cycles", rather than seconds and nanoseconds.
  */
-static cycle_t ixgbe_ptp_read_X550(const struct cyclecounter *hw_cc)
+static u64 ixgbe_ptp_read_X550(const struct cyclecounter *hw_cc)
 {
        struct ixgbe_adapter *adapter =
                        container_of(hw_cc, struct ixgbe_adapter, hw_cc);
  * cyclecounter structure used to construct a ns counter from the
  * arbitrary fixed point registers
  */
-static cycle_t ixgbe_ptp_read_82599(const struct cyclecounter *cc)
+static u64 ixgbe_ptp_read_82599(const struct cyclecounter *cc)
 {
        struct ixgbe_adapter *adapter =
                container_of(cc, struct ixgbe_adapter, hw_cc);
 
 
 /* mlx4_en_read_clock - read raw cycle counter (to be used by time counter)
  */
-static cycle_t mlx4_en_read_clock(const struct cyclecounter *tc)
+static u64 mlx4_en_read_clock(const struct cyclecounter *tc)
 {
        struct mlx4_en_dev *mdev =
                container_of(tc, struct mlx4_en_dev, cycles);
 
                io_mapping_free(mlx4_priv(dev)->bf_mapping);
 }
 
-cycle_t mlx4_read_clock(struct mlx4_dev *dev)
+u64 mlx4_read_clock(struct mlx4_dev *dev)
 {
        u32 clockhi, clocklo, clockhi1;
-       cycle_t cycles;
+       u64 cycles;
        int i;
        struct mlx4_priv *priv = mlx4_priv(dev);
 
 
        hwts->hwtstamp = ns_to_ktime(nsec);
 }
 
-static cycle_t mlx5e_read_internal_timer(const struct cyclecounter *cc)
+static u64 mlx5e_read_internal_timer(const struct cyclecounter *cc)
 {
        struct mlx5e_tstamp *tstamp = container_of(cc, struct mlx5e_tstamp,
                                                   cycles);
 
        return mlx5_cmd_exec(dev, in, sizeof(in), out, sizeof(out));
 }
 
-cycle_t mlx5_read_internal_timer(struct mlx5_core_dev *dev)
+u64 mlx5_read_internal_timer(struct mlx5_core_dev *dev)
 {
        u32 timer_h, timer_h1, timer_l;
 
        if (timer_h != timer_h1) /* wrap around */
                timer_l = ioread32be(&dev->iseg->internal_timer_l);
 
-       return (cycle_t)timer_l | (cycle_t)timer_h1 << 32;
+       return (u64)timer_l | (u64)timer_h1 << 32;
 }
 
 static int mlx5_irq_set_affinity_hint(struct mlx5_core_dev *mdev, int i)
 
 int mlx5_destroy_scheduling_element_cmd(struct mlx5_core_dev *dev, u8 hierarchy,
                                        u32 element_id);
 int mlx5_wait_for_vf_pages(struct mlx5_core_dev *dev);
-cycle_t mlx5_read_internal_timer(struct mlx5_core_dev *dev);
+u64 mlx5_read_internal_timer(struct mlx5_core_dev *dev);
 u32 mlx5_get_msix_vec(struct mlx5_core_dev *dev, int vecidx);
 struct mlx5_eq *mlx5_eqn2eq(struct mlx5_core_dev *dev, int eqn);
 void mlx5_cq_tasklet_cb(unsigned long data);
 
        return type == match ? 0 : -1;
 }
 
-static cycle_t cpts_systim_read(const struct cyclecounter *cc)
+static u64 cpts_systim_read(const struct cyclecounter *cc)
 {
        u64 val = 0;
        struct cpts_event *event;
 
 
 struct arch_timer_kvm {
        /* Virtual offset */
-       cycle_t                 cntvoff;
+       u64                     cntvoff;
 };
 
 struct arch_timer_cpu {
        /* Registers: control register, timer value */
        u32                             cntv_ctl;       /* Saved/restored */
-       cycle_t                         cntv_cval;      /* Saved/restored */
+       u64                             cntv_cval;      /* Saved/restored */
 
        /*
         * Anything that is not used directly from assembly code goes
 
  * structure.
  */
 struct clocksource {
-       cycle_t (*read)(struct clocksource *cs);
-       cycle_t mask;
+       u64 (*read)(struct clocksource *cs);
+       u64 mask;
        u32 mult;
        u32 shift;
        u64 max_idle_ns;
 #ifdef CONFIG_CLOCKSOURCE_WATCHDOG
        /* Watchdog related data, used by the framework */
        struct list_head wd_list;
-       cycle_t cs_last;
-       cycle_t wd_last;
+       u64 cs_last;
+       u64 wd_last;
 #endif
        struct module *owner;
 };
 #define CLOCK_SOURCE_RESELECT                  0x100
 
 /* simplify initialization of mask field */
-#define CLOCKSOURCE_MASK(bits) (cycle_t)((bits) < 64 ? ((1ULL<<(bits))-1) : -1)
+#define CLOCKSOURCE_MASK(bits) (u64)((bits) < 64 ? ((1ULL<<(bits))-1) : -1)
 
 static inline u32 clocksource_freq2mult(u32 freq, u32 shift_constant, u64 from)
 {
  *
  * XXX - This could use some mult_lxl_ll() asm optimization
  */
-static inline s64 clocksource_cyc2ns(cycle_t cycles, u32 mult, u32 shift)
+static inline s64 clocksource_cyc2ns(u64 cycles, u32 mult, u32 shift)
 {
        return ((u64) cycles * mult) >> shift;
 }
 
 extern int timekeeping_notify(struct clocksource *clock);
 
-extern cycle_t clocksource_mmio_readl_up(struct clocksource *);
-extern cycle_t clocksource_mmio_readl_down(struct clocksource *);
-extern cycle_t clocksource_mmio_readw_up(struct clocksource *);
-extern cycle_t clocksource_mmio_readw_down(struct clocksource *);
+extern u64 clocksource_mmio_readl_up(struct clocksource *);
+extern u64 clocksource_mmio_readl_down(struct clocksource *);
+extern u64 clocksource_mmio_readw_up(struct clocksource *);
+extern u64 clocksource_mmio_readw_down(struct clocksource *);
 
 extern int clocksource_mmio_init(void __iomem *, const char *,
-       unsigned long, int, unsigned, cycle_t (*)(struct clocksource *));
+       unsigned long, int, unsigned, u64 (*)(struct clocksource *));
 
 extern int clocksource_i8253_init(void);
 
 
                        unsigned long freq);
 void dw_apb_clocksource_register(struct dw_apb_clocksource *dw_cs);
 void dw_apb_clocksource_start(struct dw_apb_clocksource *dw_cs);
-cycle_t dw_apb_clocksource_read(struct dw_apb_clocksource *dw_cs);
+u64 dw_apb_clocksource_read(struct dw_apb_clocksource *dw_cs);
 
 #endif /* __DW_APB_TIMER_H__ */
 
        unsigned long gic_addrspace_size, unsigned int cpu_vec,
        unsigned int irqbase);
 extern void gic_clocksource_init(unsigned int);
-extern cycle_t gic_read_count(void);
+extern u64 gic_read_count(void);
 extern unsigned int gic_get_count_width(void);
-extern cycle_t gic_read_compare(void);
-extern void gic_write_compare(cycle_t cnt);
-extern void gic_write_cpu_compare(cycle_t cnt, int cpu);
+extern u64 gic_read_compare(void);
+extern void gic_write_compare(u64 cnt);
+extern void gic_write_cpu_compare(u64 cnt, int cpu);
 extern void gic_start_count(void);
 extern void gic_stop_count(void);
 extern int gic_get_c0_compare_int(void);
 
 int mlx4_FLOW_STEERING_IB_UC_QP_RANGE(struct mlx4_dev *dev, u32 min_range_qpn,
                                      u32 max_range_qpn);
 
-cycle_t mlx4_read_clock(struct mlx4_dev *dev);
+u64 mlx4_read_clock(struct mlx4_dev *dev);
 
 struct mlx4_active_ports {
        DECLARE_BITMAP(ports, MLX4_MAX_PORTS);
 
 #include <linux/types.h>
 
 /* simplify initialization of mask field */
-#define CYCLECOUNTER_MASK(bits) (cycle_t)((bits) < 64 ? ((1ULL<<(bits))-1) : -1)
+#define CYCLECOUNTER_MASK(bits) (u64)((bits) < 64 ? ((1ULL<<(bits))-1) : -1)
 
 /**
  * struct cyclecounter - hardware abstraction for a free running counter
  * @shift:             cycle to nanosecond divisor (power of two)
  */
 struct cyclecounter {
-       cycle_t (*read)(const struct cyclecounter *cc);
-       cycle_t mask;
+       u64 (*read)(const struct cyclecounter *cc);
+       u64 mask;
        u32 mult;
        u32 shift;
 };
  */
 struct timecounter {
        const struct cyclecounter *cc;
-       cycle_t cycle_last;
+       u64 cycle_last;
        u64 nsec;
        u64 mask;
        u64 frac;
  * @frac:      pointer to storage for the fractional nanoseconds.
  */
 static inline u64 cyclecounter_cyc2ns(const struct cyclecounter *cc,
-                                     cycle_t cycles, u64 mask, u64 *frac)
+                                     u64 cycles, u64 mask, u64 *frac)
 {
        u64 ns = (u64) cycles;
 
  * in the past.
  */
 extern u64 timecounter_cyc2time(struct timecounter *tc,
-                               cycle_t cycle_tstamp);
+                               u64 cycle_tstamp);
 
 #endif
 
  */
 struct tk_read_base {
        struct clocksource      *clock;
-       cycle_t                 (*read)(struct clocksource *cs);
-       cycle_t                 mask;
-       cycle_t                 cycle_last;
+       u64                     (*read)(struct clocksource *cs);
+       u64                     mask;
+       u64                     cycle_last;
        u32                     mult;
        u32                     shift;
        u64                     xtime_nsec;
        struct timespec64       raw_time;
 
        /* The following members are for timekeeping internal use */
-       cycle_t                 cycle_interval;
+       u64                     cycle_interval;
        u64                     xtime_interval;
        s64                     xtime_remainder;
        u32                     raw_interval;
 
 extern void update_vsyscall_old(struct timespec *ts, struct timespec *wtm,
                                struct clocksource *c, u32 mult,
-                               cycle_t cycle_last);
+                               u64 cycle_last);
 extern void update_vsyscall_tz(void);
 
 #else
 
  * @cs_was_changed_seq:        The sequence number of clocksource change events
  */
 struct system_time_snapshot {
-       cycle_t         cycles;
+       u64             cycles;
        ktime_t         real;
        ktime_t         raw;
        unsigned int    clock_was_set_seq;
  *     timekeeping code to verify comparibility of two cycle values
  */
 struct system_counterval_t {
-       cycle_t                 cycles;
+       u64                     cycles;
        struct clocksource      *cs;
 };
 
 
 typedef void (*rcu_callback_t)(struct rcu_head *head);
 typedef void (*call_rcu_func_t)(struct rcu_head *head, rcu_callback_t func);
 
-/* clocksource cycle base type */
-typedef u64 cycle_t;
-
 #endif /*  __ASSEMBLY__ */
 #endif /* _LINUX_TYPES_H */
 
 static void clocksource_watchdog(unsigned long data)
 {
        struct clocksource *cs;
-       cycle_t csnow, wdnow, cslast, wdlast, delta;
+       u64 csnow, wdnow, cslast, wdlast, delta;
        int64_t wd_nsec, cs_nsec;
        int next_cpu, reset_pending;
 
 
 #define JIFFIES_SHIFT  8
 #endif
 
-static cycle_t jiffies_read(struct clocksource *cs)
+static u64 jiffies_read(struct clocksource *cs)
 {
-       return (cycle_t) jiffies;
+       return (u64) jiffies;
 }
 
 static struct clocksource clocksource_jiffies = {
 
  */
 static u64 timecounter_read_delta(struct timecounter *tc)
 {
-       cycle_t cycle_now, cycle_delta;
+       u64 cycle_now, cycle_delta;
        u64 ns_offset;
 
        /* read cycle counter: */
  * time previous to the time stored in the cycle counter.
  */
 static u64 cc_cyc2ns_backwards(const struct cyclecounter *cc,
-                              cycle_t cycles, u64 mask, u64 frac)
+                              u64 cycles, u64 mask, u64 frac)
 {
        u64 ns = (u64) cycles;
 
 }
 
 u64 timecounter_cyc2time(struct timecounter *tc,
-                        cycle_t cycle_tstamp)
+                        u64 cycle_tstamp)
 {
        u64 delta = (cycle_tstamp - tc->cycle_last) & tc->cc->mask;
        u64 nsec = tc->nsec, frac = tc->frac;
 
 #ifdef CONFIG_DEBUG_TIMEKEEPING
 #define WARNING_FREQ (HZ*300) /* 5 minute rate-limiting */
 
-static void timekeeping_check_update(struct timekeeper *tk, cycle_t offset)
+static void timekeeping_check_update(struct timekeeper *tk, u64 offset)
 {
 
-       cycle_t max_cycles = tk->tkr_mono.clock->max_cycles;
+       u64 max_cycles = tk->tkr_mono.clock->max_cycles;
        const char *name = tk->tkr_mono.clock->name;
 
        if (offset > max_cycles) {
        }
 }
 
-static inline cycle_t timekeeping_get_delta(struct tk_read_base *tkr)
+static inline u64 timekeeping_get_delta(struct tk_read_base *tkr)
 {
        struct timekeeper *tk = &tk_core.timekeeper;
-       cycle_t now, last, mask, max, delta;
+       u64 now, last, mask, max, delta;
        unsigned int seq;
 
        /*
        return delta;
 }
 #else
-static inline void timekeeping_check_update(struct timekeeper *tk, cycle_t offset)
+static inline void timekeeping_check_update(struct timekeeper *tk, u64 offset)
 {
 }
-static inline cycle_t timekeeping_get_delta(struct tk_read_base *tkr)
+static inline u64 timekeeping_get_delta(struct tk_read_base *tkr)
 {
-       cycle_t cycle_now, delta;
+       u64 cycle_now, delta;
 
        /* read clocksource */
        cycle_now = tkr->read(tkr->clock);
  */
 static void tk_setup_internals(struct timekeeper *tk, struct clocksource *clock)
 {
-       cycle_t interval;
+       u64 interval;
        u64 tmp, ntpinterval;
        struct clocksource *old_clock;
 
        if (tmp == 0)
                tmp = 1;
 
-       interval = (cycle_t) tmp;
+       interval = (u64) tmp;
        tk->cycle_interval = interval;
 
        /* Go back from cycles -> shifted ns */
 static inline u32 arch_gettimeoffset(void) { return 0; }
 #endif
 
-static inline u64 timekeeping_delta_to_ns(struct tk_read_base *tkr,
-                                         cycle_t delta)
+static inline u64 timekeeping_delta_to_ns(struct tk_read_base *tkr, u64 delta)
 {
        u64 nsec;
 
 
 static inline u64 timekeeping_get_ns(struct tk_read_base *tkr)
 {
-       cycle_t delta;
+       u64 delta;
 
        delta = timekeeping_get_delta(tkr);
        return timekeeping_delta_to_ns(tkr, delta);
 }
 
-static inline u64 timekeeping_cycles_to_ns(struct tk_read_base *tkr,
-                                          cycle_t cycles)
+static inline u64 timekeeping_cycles_to_ns(struct tk_read_base *tkr, u64 cycles)
 {
-       cycle_t delta;
+       u64 delta;
 
        /* calculate the delta since the last update_wall_time */
        delta = clocksource_delta(cycles, tkr->cycle_last, tkr->mask);
 EXPORT_SYMBOL_GPL(ktime_get_boot_fast_ns);
 
 /* Suspend-time cycles value for halted fast timekeeper. */
-static cycle_t cycles_at_suspend;
+static u64 cycles_at_suspend;
 
-static cycle_t dummy_clock_read(struct clocksource *cs)
+static u64 dummy_clock_read(struct clocksource *cs)
 {
        return cycles_at_suspend;
 }
 static void timekeeping_forward_now(struct timekeeper *tk)
 {
        struct clocksource *clock = tk->tkr_mono.clock;
-       cycle_t cycle_now, delta;
+       u64 cycle_now, delta;
        u64 nsec;
 
        cycle_now = tk->tkr_mono.read(clock);
        ktime_t base_real;
        u64 nsec_raw;
        u64 nsec_real;
-       cycle_t now;
+       u64 now;
 
        WARN_ON_ONCE(timekeeping_suspended);
 
  * interval is partial_history_cycles.
  */
 static int adjust_historical_crosststamp(struct system_time_snapshot *history,
-                                        cycle_t partial_history_cycles,
-                                        cycle_t total_history_cycles,
+                                        u64 partial_history_cycles,
+                                        u64 total_history_cycles,
                                         bool discontinuity,
                                         struct system_device_crosststamp *ts)
 {
 /*
  * cycle_between - true if test occurs chronologically between before and after
  */
-static bool cycle_between(cycle_t before, cycle_t test, cycle_t after)
+static bool cycle_between(u64 before, u64 test, u64 after)
 {
        if (test > before && test < after)
                return true;
 {
        struct system_counterval_t system_counterval;
        struct timekeeper *tk = &tk_core.timekeeper;
-       cycle_t cycles, now, interval_start;
+       u64 cycles, now, interval_start;
        unsigned int clock_was_set_seq = 0;
        ktime_t base_real, base_raw;
        u64 nsec_real, nsec_raw;
         * current interval
         */
        if (do_interp) {
-               cycle_t partial_history_cycles, total_history_cycles;
+               u64 partial_history_cycles, total_history_cycles;
                bool discontinuity;
 
                /*
        struct clocksource *clock = tk->tkr_mono.clock;
        unsigned long flags;
        struct timespec64 ts_new, ts_delta;
-       cycle_t cycle_now;
+       u64 cycle_now;
 
        sleeptime_injected = false;
        read_persistent_clock64(&ts_new);
  *
  * Returns the unconsumed cycles.
  */
-static cycle_t logarithmic_accumulation(struct timekeeper *tk, cycle_t offset,
-                                               u32 shift,
-                                               unsigned int *clock_set)
+static u64 logarithmic_accumulation(struct timekeeper *tk, u64 offset,
+                                   u32 shift, unsigned int *clock_set)
 {
-       cycle_t interval = tk->cycle_interval << shift;
+       u64 interval = tk->cycle_interval << shift;
        u64 raw_nsecs;
 
        /* If the offset is smaller than a shifted interval, do nothing */
 {
        struct timekeeper *real_tk = &tk_core.timekeeper;
        struct timekeeper *tk = &shadow_timekeeper;
-       cycle_t offset;
+       u64 offset;
        int shift = 0, maxshift;
        unsigned int clock_set = 0;
        unsigned long flags;
 
 #endif
 
 #ifdef CONFIG_CLOCKSOURCE_VALIDATE_LAST_CYCLE
-static inline cycle_t clocksource_delta(cycle_t now, cycle_t last, cycle_t mask)
+static inline u64 clocksource_delta(u64 now, u64 last, u64 mask)
 {
-       cycle_t ret = (now - last) & mask;
+       u64 ret = (now - last) & mask;
 
        /*
         * Prevent time going backwards by checking the MSB of mask in
        return ret & ~(mask >> 1) ? 0 : ret;
 }
 #else
-static inline cycle_t clocksource_delta(cycle_t now, cycle_t last, cycle_t mask)
+static inline u64 clocksource_delta(u64 now, u64 last, u64 mask)
 {
        return (now - last) & mask;
 }
 
        }
 }
 
-static cycle_t         ftrace_update_time;
+static u64             ftrace_update_time;
 unsigned long          ftrace_update_tot_cnt;
 
 static inline int ops_traces_mod(struct ftrace_ops *ops)
 {
        struct ftrace_page *pg;
        struct dyn_ftrace *p;
-       cycle_t start, stop;
+       u64 start, stop;
        unsigned long update_cnt = 0;
        unsigned long rec_flags = 0;
        int i;
 
 }
 __setup("tp_printk", set_tracepoint_printk);
 
-unsigned long long ns2usecs(cycle_t nsec)
+unsigned long long ns2usecs(u64 nsec)
 {
        nsec += 500;
        do_div(nsec, 1000);
        return read;
 }
 
-static cycle_t buffer_ftrace_now(struct trace_buffer *buf, int cpu)
+static u64 buffer_ftrace_now(struct trace_buffer *buf, int cpu)
 {
        u64 ts;
 
        return ts;
 }
 
-cycle_t ftrace_now(int cpu)
+u64 ftrace_now(int cpu)
 {
        return buffer_ftrace_now(&global_trace.trace_buffer, cpu);
 }
 
        unsigned long           policy;
        unsigned long           rt_priority;
        unsigned long           skipped_entries;
-       cycle_t                 preempt_timestamp;
+       u64                     preempt_timestamp;
        pid_t                   pid;
        kuid_t                  uid;
        char                    comm[TASK_COMM_LEN];
        struct trace_array              *tr;
        struct ring_buffer              *buffer;
        struct trace_array_cpu __percpu *data;
-       cycle_t                         time_start;
+       u64                             time_start;
        int                             cpu;
 };
 
 }
 #endif /* CONFIG_STACKTRACE */
 
-extern cycle_t ftrace_now(int cpu);
+extern u64 ftrace_now(int cpu);
 
 extern void trace_find_cmdline(int pid, char comm[]);
 extern void trace_event_follow_fork(struct trace_array *tr, bool enable);
 #endif /* CONFIG_FTRACE_STARTUP_TEST */
 
 extern void *head_page(struct trace_array_cpu *data);
-extern unsigned long long ns2usecs(cycle_t nsec);
+extern unsigned long long ns2usecs(u64 nsec);
 extern int
 trace_vbprintk(unsigned long ip, const char *fmt, va_list args);
 extern int
 
 /*
  * Should this new latency be reported/recorded?
  */
-static bool report_latency(struct trace_array *tr, cycle_t delta)
+static bool report_latency(struct trace_array *tr, u64 delta)
 {
        if (tracing_thresh) {
                if (delta < tracing_thresh)
                      unsigned long parent_ip,
                      int cpu)
 {
-       cycle_t T0, T1, delta;
+       u64 T0, T1, delta;
        unsigned long flags;
        int pc;
 
 
 /*
  * Should this new latency be reported/recorded?
  */
-static bool report_latency(struct trace_array *tr, cycle_t delta)
+static bool report_latency(struct trace_array *tr, u64 delta)
 {
        if (tracing_thresh) {
                if (delta < tracing_thresh)
                          struct task_struct *prev, struct task_struct *next)
 {
        struct trace_array_cpu *data;
-       cycle_t T0, T1, delta;
+       u64 T0, T1, delta;
        unsigned long flags;
        long disabled;
        int cpu;
 
 }
 EXPORT_SYMBOL_GPL(snd_hdac_stream_set_params);
 
-static cycle_t azx_cc_read(const struct cyclecounter *cc)
+static u64 azx_cc_read(const struct cyclecounter *cc)
 {
        struct hdac_stream *azx_dev = container_of(cc, struct hdac_stream, cc);
 
 }
 
 static void azx_timecounter_init(struct hdac_stream *azx_dev,
-                                bool force, cycle_t last)
+                                bool force, u64 last)
 {
        struct timecounter *tc = &azx_dev->tc;
        struct cyclecounter *cc = &azx_dev->cc;
        struct snd_pcm_runtime *runtime = azx_dev->substream->runtime;
        struct hdac_stream *s;
        bool inited = false;
-       cycle_t cycle_last = 0;
+       u64 cycle_last = 0;
        int i = 0;
 
        list_for_each_entry(s, &bus->stream_list, list) {
 
        vcpu->arch.timer_cpu.active_cleared_last = false;
 }
 
-static cycle_t kvm_phys_timer_read(void)
+static u64 kvm_phys_timer_read(void)
 {
        return timecounter->cc->read(timecounter->cc);
 }
 
 static u64 kvm_timer_compute_delta(struct kvm_vcpu *vcpu)
 {
-       cycle_t cval, now;
+       u64 cval, now;
 
        cval = vcpu->arch.timer_cpu.cntv_cval;
        now = kvm_phys_timer_read() - vcpu->kvm->arch.timer.cntvoff;
 bool kvm_timer_should_fire(struct kvm_vcpu *vcpu)
 {
        struct arch_timer_cpu *timer = &vcpu->arch.timer_cpu;
-       cycle_t cval, now;
+       u64 cval, now;
 
        if (!kvm_timer_irq_can_fire(vcpu))
                return false;