*/
 static void __init get_assabet_scr(void)
 {
-       unsigned long uninitialized_var(scr), i;
+       unsigned long scr, i;
 
        GPDR |= 0x3fc;                  /* Configure GPIO 9:2 as outputs */
        GPSR = 0x3fc;                   /* Write 0xFF to GPIO 9:2 */
 
 static int
 do_alignment(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
 {
-       union offset_union uninitialized_var(offset);
+       union offset_union offset;
        unsigned long instrptr;
        int (*handler)(unsigned long addr, u32 instr, struct pt_regs *regs);
        unsigned int type;
 
 do_copy_task_regs (struct task_struct *task, struct unw_frame_info *info, void *arg)
 {
        unsigned long mask, sp, nat_bits = 0, ar_rnat, urbs_end, cfm;
-       unsigned long uninitialized_var(ip);    /* GCC be quiet */
+       unsigned long ip;
        elf_greg_t *dst = arg;
        struct pt_regs *pt;
        char nat;
 
 void __init setup_per_cpu_areas(void)
 {
        struct pcpu_alloc_info *ai;
-       struct pcpu_group_info *uninitialized_var(gi);
+       struct pcpu_group_info *gi;
        unsigned int *cpu_map;
        void *base;
        unsigned long base_offset;
 
 
 void ia64_tlb_init(void)
 {
-       ia64_ptce_info_t uninitialized_var(ptce_info); /* GCC be quiet */
+       ia64_ptce_info_t ptce_info;
        u64 tr_pgbits;
        long status;
        pal_vm_info_1_u_t vm_info_1;
 
        unsigned int pagemask, guestctl1 = 0, c0, c1, i;
        unsigned long asidmask = cpu_asid_mask(¤t_cpu_data);
        int asidwidth = DIV_ROUND_UP(ilog2(asidmask) + 1, 4);
-       unsigned long uninitialized_var(s_mmid);
+       unsigned long s_mmid;
 #ifdef CONFIG_32BIT
        bool xpa = cpu_has_xpa && (read_c0_pagegrain() & PG_ELPA);
        int pwidth = xpa ? 11 : 8;
 
 static void *__kmap_pgprot(struct page *page, unsigned long addr, pgprot_t prot)
 {
        enum fixed_addresses idx;
-       unsigned int uninitialized_var(old_mmid);
+       unsigned int old_mmid;
        unsigned long vaddr, flags, entrylo;
        unsigned long old_ctx;
        pte_t pte;
 
                if (size <= (current_cpu_data.tlbsizeftlbsets ?
                             current_cpu_data.tlbsize / 8 :
                             current_cpu_data.tlbsize / 2)) {
-                       unsigned long old_entryhi, uninitialized_var(old_mmid);
+                       unsigned long old_entryhi, old_mmid;
                        int newpid = cpu_asid(cpu, mm);
 
                        old_entryhi = read_c0_entryhi();
        int cpu = smp_processor_id();
 
        if (cpu_context(cpu, vma->vm_mm) != 0) {
-               unsigned long uninitialized_var(old_mmid);
+               unsigned long old_mmid;
                unsigned long flags, old_entryhi;
                int idx;
 
 #ifdef CONFIG_XPA
        panic("Broken for XPA kernels");
 #else
-       unsigned int uninitialized_var(old_mmid);
+       unsigned int old_mmid;
        unsigned long flags;
        unsigned long wired;
        unsigned long old_pagemask;
 
                                              gva_t eaddr, void *to, void *from,
                                              unsigned long n)
 {
-       int uninitialized_var(old_pid), old_lpid;
+       int old_pid, old_lpid;
        unsigned long quadrant, ret = n;
        bool is_load = !!to;
 
 
 static void kvmppc_complete_mmio_load(struct kvm_vcpu *vcpu)
 {
        struct kvm_run *run = vcpu->run;
-       u64 uninitialized_var(gpr);
+       u64 gpr;
 
        if (run->mmio.len > sizeof(gpr)) {
                printk(KERN_ERR "bad MMIO length: %d\n", run->mmio.len);
 
 {
        int l1irq;
        int l2irq;
-       struct irq_chip *uninitialized_var(irqchip);
+       struct irq_chip *irqchip;
        void *hndlr;
        int type;
        u32 reg;
 
 
 static inline int pcpu_stopped(struct pcpu *pcpu)
 {
-       u32 uninitialized_var(status);
+       u32 status;
 
        if (__pcpu_sigp(pcpu->address, SIGP_SENSE,
                        0, &status) != SIGP_CC_STATUS_STORED)
 
 static void ich_force_enable_hpet(struct pci_dev *dev)
 {
        u32 val;
-       u32 uninitialized_var(rcba);
+       u32 rcba;
        int err = 0;
 
        if (hpet_address || force_hpet_address)
 static void old_ich_force_hpet_resume(void)
 {
        u32 val;
-       u32 uninitialized_var(gen_cntl);
+       u32 gen_cntl;
 
        if (!force_hpet_address || !cached_dev)
                return;
 static void old_ich_force_enable_hpet(struct pci_dev *dev)
 {
        u32 val;
-       u32 uninitialized_var(gen_cntl);
+       u32 gen_cntl;
 
        if (hpet_address || force_hpet_address)
                return;
 
 static void vt8237_force_enable_hpet(struct pci_dev *dev)
 {
-       u32 uninitialized_var(val);
+       u32 val;
 
        if (hpet_address || force_hpet_address)
                return;
 
 static void nvidia_force_enable_hpet(struct pci_dev *dev)
 {
-       u32 uninitialized_var(val);
+       u32 val;
 
        if (hpet_address || force_hpet_address)
                return;
 
                         unsigned long data)
 {
        u64 *sptep;
-       struct rmap_iterator uninitialized_var(iter);
+       struct rmap_iterator iter;
        int young = 0;
 
        for_each_rmap_spte(rmap_head, &iter, sptep)
 
 {
        int ret;
        pt_element_t pte;
-       pt_element_t __user *uninitialized_var(ptep_user);
+       pt_element_t __user *ptep_user;
        gfn_t table_gfn;
        u64 pt_access, pte_access;
        unsigned index, accessed_dirty, pte_pkey;
 
 int __x86_set_memory_region(struct kvm *kvm, int id, gpa_t gpa, u32 size)
 {
        int i, r;
-       unsigned long hva, uninitialized_var(old_npages);
+       unsigned long hva, old_npages;
        struct kvm_memslots *slots = kvm_memslots(kvm);
        struct kvm_memory_slot *slot;
 
 
                             struct scatterlist *sglist,
                             struct scatterlist **sg)
 {
-       struct bio_vec uninitialized_var(bvec), bvprv = { NULL };
+       struct bio_vec bvec, bvprv = { NULL };
        struct bvec_iter iter;
        int nsegs = 0;
        bool new_bio = false;
 
        cpumask_var_t tmp;
        int cpu;
        unsigned long min_weight = -1;
-       unsigned long uninitialized_var(preferred_cpu);
+       unsigned long preferred_cpu;
 
        if (!alloc_cpumask_var(&tmp, GFP_KERNEL))
                return;
 
        struct ata_link *link;
        struct ata_device *dev;
        unsigned long now;
-       unsigned int uninitialized_var(msecs);
+       unsigned int msecs;
        int rc = 0;
 
        ap = ata_shost_to_port(sdev->host);
 
            vcc->qos.txtp.max_pcr >= ATM_OC3_PCR);
        if (unlimited && zatm_dev->ubr != -1) zatm_vcc->shaper = zatm_dev->ubr;
        else {
-               int uninitialized_var(pcr);
+               int pcr;
 
                if (unlimited) vcc->qos.txtp.max_sdu = ATM_MAX_AAL5_PDU;
                if ((zatm_vcc->shaper = alloc_shaper(vcc->dev,&pcr,
 
 {
        struct nlattr *resource_filter;
        struct drbd_resource *resource;
-       struct drbd_device *uninitialized_var(device);
+       struct drbd_device *device;
        int minor, err, retcode;
        struct drbd_genlmsghdr *dh;
        struct device_info device_info;
 {
        struct nlattr *resource_filter;
        struct drbd_resource *resource = NULL, *next_resource;
-       struct drbd_connection *uninitialized_var(connection);
+       struct drbd_connection *connection;
        int err = 0, retcode;
        struct drbd_genlmsghdr *dh;
        struct connection_info connection_info;
 {
        struct nlattr *resource_filter;
        struct drbd_resource *resource;
-       struct drbd_device *uninitialized_var(device);
+       struct drbd_device *device;
        struct drbd_peer_device *peer_device = NULL;
        int minor, err, retcode;
        struct drbd_genlmsghdr *dh;
 
        struct rbd_device *rbd_dev = obj_req->img_request->rbd_dev;
        struct ceph_osd_data *osd_data;
        u64 objno;
-       u8 state, new_state, uninitialized_var(current_state);
+       u8 state, new_state, current_state;
        bool has_current_state;
        void *p;
 
 
 {
        struct clk_gate *gate = to_clk_gate(hw);
        int set = gate->flags & CLK_GATE_SET_TO_DISABLE ? 1 : 0;
-       unsigned long uninitialized_var(flags);
+       unsigned long flags;
        u32 reg;
 
        set ^= enable;
 
 static int context_add_buffer(struct context *ctx)
 {
        struct descriptor_buffer *desc;
-       dma_addr_t uninitialized_var(bus_addr);
+       dma_addr_t bus_addr;
        int offset;
 
        /*
                                   struct fw_packet *packet)
 {
        struct fw_ohci *ohci = ctx->ohci;
-       dma_addr_t d_bus, uninitialized_var(payload_bus);
+       dma_addr_t d_bus, payload_bus;
        struct driver_data *driver_data;
        struct descriptor *d, *last;
        __le32 *header;
 {
        struct fw_ohci *ohci;
        __be32 *next_config_rom;
-       dma_addr_t uninitialized_var(next_config_rom_bus);
+       dma_addr_t next_config_rom_bus;
 
        ohci = fw_ohci(card);
 
                                int type, int channel, size_t header_size)
 {
        struct fw_ohci *ohci = fw_ohci(card);
-       struct iso_context *uninitialized_var(ctx);
-       descriptor_callback_t uninitialized_var(callback);
-       u64 *uninitialized_var(channels);
-       u32 *uninitialized_var(mask), uninitialized_var(regs);
+       struct iso_context *ctx;
+       descriptor_callback_t callback;
+       u64 *channels;
+       u32 *mask, regs;
        int index, ret = -EBUSY;
 
        spin_lock_irq(&ohci->lock);
 
 
 static void sii8620_stop_video(struct sii8620 *ctx)
 {
-       u8 uninitialized_var(val);
+       u8 val;
 
        sii8620_write_seq_static(ctx,
                REG_TPI_INTR_EN, 0,
 
        const u8 empty[3] = { 0, 0, 0 };
 
        for (i = 0; i < 4; i++) {
-               int uninitialized_var(width), height;
+               int width, height;
                cvt = &(timing->data.other_data.data.cvt[i]);
 
                if (!memcmp(cvt->code, empty, 3))
 
        unsigned long best_freq = 0;
        u32 min_delta = 0xffffffff;
        u8 p_min, p_max;
-       u8 _p, uninitialized_var(best_p);
-       u16 _m, uninitialized_var(best_m);
-       u8 _s, uninitialized_var(best_s);
+       u8 _p, best_p;
+       u16 _m, best_m;
+       u8 _s, best_s;
 
        p_min = DIV_ROUND_UP(fin, (12 * MHZ));
        p_max = fin / (6 * MHZ);
 
                               unsigned int size, unsigned int fb_cpp)
 {
        struct intel_fbc *fbc = &dev_priv->fbc;
-       struct drm_mm_node *uninitialized_var(compressed_llb);
+       struct drm_mm_node *compressed_llb;
        int ret;
 
        drm_WARN_ON(&dev_priv->drm,
 
 __unwind_incomplete_requests(struct intel_engine_cs *engine)
 {
        struct i915_request *rq, *rn, *active = NULL;
-       struct list_head *uninitialized_var(pl);
+       struct list_head *pl;
        int prio = I915_PRIORITY_INVALID;
 
        lockdep_assert_held(&engine->active.lock);
 
                                 unsigned int slow_timeout_ms,
                                 u32 *out_value)
 {
-       u32 uninitialized_var(reg_value);
+       u32 reg_value;
 #define done (((reg_value = intel_uncore_read_fw(uncore, reg)) & mask) == value)
        int ret;
 
 
        unsigned long best_freq = 0;
        unsigned long fvco_min, fvco_max, fin, fout;
        unsigned int min_prediv, max_prediv;
-       unsigned int _prediv, uninitialized_var(best_prediv);
-       unsigned long _fbdiv, uninitialized_var(best_fbdiv);
+       unsigned int _prediv, best_prediv;
+       unsigned long _fbdiv, best_fbdiv;
        unsigned long min_delta = ULONG_MAX;
 
        dsi->format = format;
 
 {
        unsigned int i;
        unsigned int len = i2c->msg->len - i2c->processed;
-       u32 uninitialized_var(val);
+       u32 val;
        u8 byte;
 
        /* we only care for MBRF here. */
 
 static acpi_handle ide_acpi_hwif_get_handle(ide_hwif_t *hwif)
 {
        struct device           *dev = hwif->gendev.parent;
-       acpi_handle             uninitialized_var(dev_handle);
+       acpi_handle             dev_handle;
        u64                     pcidevfn;
        acpi_handle             chan_handle;
        int                     err;
 
 
 static ide_startstop_t ide_transfer_pc(ide_drive_t *drive)
 {
-       struct ide_atapi_pc *uninitialized_var(pc);
+       struct ide_atapi_pc *pc;
        ide_hwif_t *hwif = drive->hwif;
        struct request *rq = hwif->rq;
        ide_expiry_t *expiry;
 
        u8 mmio = (hwif->host_flags & IDE_HFLAG_MMIO) ? 1 : 0;
 
        if (io_32bit) {
-               unsigned long uninitialized_var(flags);
+               unsigned long flags;
 
                if ((io_32bit & 2) && !mmio) {
                        local_irq_save(flags);
        u8 mmio = (hwif->host_flags & IDE_HFLAG_MMIO) ? 1 : 0;
 
        if (io_32bit) {
-               unsigned long uninitialized_var(flags);
+               unsigned long flags;
 
                if ((io_32bit & 2) && !mmio) {
                        local_irq_save(flags);
 
 void ide_timer_expiry (struct timer_list *t)
 {
        ide_hwif_t      *hwif = from_timer(hwif, t, timer);
-       ide_drive_t     *uninitialized_var(drive);
+       ide_drive_t     *drive;
        ide_handler_t   *handler;
        unsigned long   flags;
        int             wait = -1;
        int             plug_device = 0;
-       struct request  *uninitialized_var(rq_in_flight);
+       struct request  *rq_in_flight;
 
        spin_lock_irqsave(&hwif->lock, flags);
 
 {
        ide_hwif_t *hwif = (ide_hwif_t *)dev_id;
        struct ide_host *host = hwif->host;
-       ide_drive_t *uninitialized_var(drive);
+       ide_drive_t *drive;
        ide_handler_t *handler;
        unsigned long flags;
        ide_startstop_t startstop;
        irqreturn_t irq_ret = IRQ_NONE;
        int plug_device = 0;
-       struct request *uninitialized_var(rq_in_flight);
+       struct request *rq_in_flight;
 
        if (host->host_flags & IDE_HFLAG_SERIALIZE) {
                if (hwif != host->cur_port)
 
 
 int ide_sysfs_register_port(ide_hwif_t *hwif)
 {
-       int i, uninitialized_var(rc);
+       int i, rc;
 
        for (i = 0; ide_port_attrs[i]; i++) {
                rc = device_create_file(hwif->portdev, ide_port_attrs[i]);
 
 static void umc_set_pio_mode(ide_hwif_t *hwif, ide_drive_t *drive)
 {
        ide_hwif_t *mate = hwif->mate;
-       unsigned long uninitialized_var(flags);
+       unsigned long flags;
        const u8 pio = drive->pio_mode - XFER_PIO_0;
 
        printk("%s: setting umc8672 to PIO mode%d (speed %d)\n",
 
        struct cpuidle_state *state = &drv->states[index];
        unsigned long eax = flg2MWAIT(state->flags);
        unsigned long ecx = 1; /* break on interrupt flag */
-       bool uninitialized_var(tick);
+       bool tick;
        int cpu = smp_processor_id();
 
        /*
 
        struct ib_uverbs_create_qp_resp resp;
        struct ib_uqp_object           *obj;
        struct ib_xrcd                 *xrcd;
-       struct ib_uobject              *uninitialized_var(xrcd_uobj);
+       struct ib_uobject              *xrcd_uobj;
        struct ib_qp                   *qp;
        struct ib_qp_open_attr          attr = {};
        int ret;
        struct ib_usrq_object           *obj;
        struct ib_pd                    *pd;
        struct ib_srq                   *srq;
-       struct ib_uobject               *uninitialized_var(xrcd_uobj);
+       struct ib_uobject               *xrcd_uobj;
        struct ib_srq_init_attr          attr;
        int ret;
        struct ib_device *ib_dev;
 
 
 static int pick_local_ip6addrs(struct c4iw_dev *dev, struct iw_cm_id *cm_id)
 {
-       struct in6_addr uninitialized_var(addr);
+       struct in6_addr addr;
        struct sockaddr_in6 *la6 = (struct sockaddr_in6 *)&cm_id->m_local_addr;
        struct sockaddr_in6 *ra6 = (struct sockaddr_in6 *)&cm_id->m_remote_addr;
 
 
 static int __c4iw_poll_cq_one(struct c4iw_cq *chp, struct c4iw_qp *qhp,
                              struct ib_wc *wc, struct c4iw_srq *srq)
 {
-       struct t4_cqe uninitialized_var(cqe);
+       struct t4_cqe cqe;
        struct t4_wq *wq = qhp ? &qhp->wq : NULL;
        u32 credit = 0;
        u8 cqe_flushed;
 
        int nreq;
        int err = 0;
        unsigned ind;
-       int uninitialized_var(size);
-       unsigned uninitialized_var(seglen);
+       int size;
+       unsigned seglen;
        __be32 dummy;
        __be32 *lso_wqe;
-       __be32 uninitialized_var(lso_hdr_sz);
+       __be32 lso_hdr_sz;
        __be32 blh;
        int i;
        struct mlx4_ib_dev *mdev = to_mdev(ibqp->device);
 
        struct mlx5_ib_dev *dev = to_mdev(ibdev);
        struct mlx5_ib_cq *cq = to_mcq(ibcq);
        u32 out[MLX5_ST_SZ_DW(create_cq_out)];
-       int uninitialized_var(index);
-       int uninitialized_var(inlen);
+       int index;
+       int inlen;
        u32 *cqb = NULL;
        void *cqc;
        int cqe_size;
        __be64 *pas;
        int page_shift;
        int inlen;
-       int uninitialized_var(cqe_size);
+       int cqe_size;
        unsigned long flags;
 
        if (!MLX5_CAP_GEN(dev->mdev, cq_resize)) {
 
 {
        struct devx_async_event_file *ev_file = filp->private_data;
        struct devx_event_subscription *event_sub;
-       struct devx_async_event_data *uninitialized_var(event);
+       struct devx_async_event_data *event;
        int ret = 0;
        size_t eventsz;
        bool omit_data;
 
        struct mlx5_wqe_xrc_seg *xrc;
        struct mlx5_bf *bf;
        void *cur_edge;
-       int uninitialized_var(size);
+       int size;
        unsigned long flags;
        unsigned int idx;
        int err = 0;
 
         * without initializing f0 and size0, and they are in fact
         * never used uninitialized.
         */
-       int uninitialized_var(size0);
-       u32 uninitialized_var(f0);
+       int size0;
+       u32 f0;
        int ind;
        u8 op0 = 0;
 
         * without initializing size0, and it is in fact never used
         * uninitialized.
         */
-       int uninitialized_var(size0);
+       int size0;
        int ind;
        void *wqe;
        void *prev_wqe;
         * without initializing f0 and size0, and they are in fact
         * never used uninitialized.
         */
-       int uninitialized_var(size0);
-       u32 uninitialized_var(f0);
+       int size0;
+       u32 f0;
        int ind;
        u8 op0 = 0;
 
 
        struct siw_srq *srq;
        struct siw_wqe *wqe = NULL;
        bool srq_event = false;
-       unsigned long uninitialized_var(flags);
+       unsigned long flags;
 
        srq = qp->srq;
        if (srq) {
 
 {
        struct serio_raw_client *client = file->private_data;
        struct serio_raw *serio_raw = client->serio_raw;
-       char uninitialized_var(c);
+       char c;
        ssize_t read = 0;
        int error;
 
 
                            unsigned long nr_pages, int prot)
 {
        struct dma_pte *first_pte = NULL, *pte = NULL;
-       phys_addr_t uninitialized_var(pteval);
+       phys_addr_t pteval;
        unsigned long sg_res = 0;
        unsigned int largepage_lvl = 0;
        unsigned long lvl_pages = 0;
 
        struct request_queue *q = bdev_get_queue(where->bdev);
        unsigned short logical_block_size = queue_logical_block_size(q);
        sector_t num_sectors;
-       unsigned int uninitialized_var(special_cmd_max_sectors);
+       unsigned int special_cmd_max_sectors;
 
        /*
         * Reject unsupported discard and write same requests.
 
        int ioctl_flags;
        int param_flags;
        unsigned int cmd;
-       struct dm_ioctl *uninitialized_var(param);
+       struct dm_ioctl *param;
        ioctl_fn fn = NULL;
        size_t input_param_size;
        struct dm_ioctl param_kernel;
 
                                                    chunk_t old, chunk_t new),
                                    void *callback_context)
 {
-       int r, uninitialized_var(new_snapshot);
+       int r, new_snapshot;
        struct pstore *ps = get_info(store);
 
        /*
 
         */
        unsigned short remaining = 0;
 
-       struct dm_target *uninitialized_var(ti);
+       struct dm_target *ti;
        struct queue_limits ti_limits;
        unsigned i;
 
 
 {
        struct dm_writecache *wc = container_of(work, struct dm_writecache, writeback_work);
        struct blk_plug plug;
-       struct wc_entry *f, *uninitialized_var(g), *e = NULL;
+       struct wc_entry *f, *g, *e = NULL;
        struct rb_node *node, *next_node;
        struct list_head skipped;
        struct writeback_list wbl;
 
        struct stripe_head *sh = bi->bi_private;
        struct r5conf *conf = sh->raid_conf;
        int disks = sh->disks, i;
-       struct md_rdev *uninitialized_var(rdev);
+       struct md_rdev *rdev;
        sector_t first_bad;
        int bad_sectors;
        int replacement = 0;
 
        struct i2c_client *client = dev->client;
        struct dtv_frontend_properties *c = &fe->dtv_property_cache;
        int ret;
-       u32 uninitialized_var(tmp);
+       u32 tmp;
        u8 u8tmp, buf[2];
        u16 u16tmp;
 
 
 static int qt1010_init_meas1(struct qt1010_priv *priv,
                             u8 oper, u8 reg, u8 reg_init_val, u8 *retval)
 {
-       u8 i, val1, uninitialized_var(val2);
+       u8 i, val1, val2;
        int err;
 
        qt1010_i2c_oper_t i2c_data[] = {
 static int qt1010_init_meas2(struct qt1010_priv *priv,
                            u8 reg_init_val, u8 *retval)
 {
-       u8 i, uninitialized_var(val);
+       u8 i, val;
        int err;
        qt1010_i2c_oper_t i2c_data[] = {
                { QT1010_WR, 0x07, reg_init_val },
 
 {
        int ret;
        const struct ihex_binrec *rec;
-       const struct firmware *uninitialized_var(fw);
+       const struct firmware *fw;
        u8 *firmware_buf;
 
        ret = request_ihex_firmware(&fw, VICAM_FIRMWARE,
 
        unsigned int header_size;
        bool has_pts = false;
        bool has_scr = false;
-       u16 uninitialized_var(scr_sof);
-       u32 uninitialized_var(scr_stc);
-       u32 uninitialized_var(pts);
+       u16 scr_sof;
+       u32 scr_stc;
+       u32 pts;
 
        if (stream->stats.stream.nb_frames == 0 &&
            stream->stats.frame.nb_packets == 0)
                struct usb_host_endpoint *best_ep = NULL;
                unsigned int best_psize = UINT_MAX;
                unsigned int bandwidth;
-               unsigned int uninitialized_var(altsetting);
+               unsigned int altsetting;
                int intfnum = stream->intfnum;
 
                /* Isochronous endpoint, select the alternate setting. */
 
        }
 
        while (length) {
-               unsigned int uninitialized_var(p_off);
+               unsigned int p_off;
 
                if (host->req->long_data) {
                        pg = nth_page(sg_page(&host->req->sg),
 
                host->block_pos);
 
        while (length) {
-               unsigned int uninitialized_var(p_off);
+               unsigned int p_off;
 
                if (host->req->long_data) {
                        pg = nth_page(sg_page(&host->req->sg),
 
 {
        unsigned long flags;
        size_t blksize, len, chunk;
-       u32 uninitialized_var(scratch);
+       u32 scratch;
        u8 *buf;
 
        DBG("PIO reading\n");
 
        /* rp0..rp15..rp17 are the various accumulated parities (per byte) */
        uint32_t rp0, rp1, rp2, rp3, rp4, rp5, rp6, rp7;
        uint32_t rp8, rp9, rp10, rp11, rp12, rp13, rp14, rp15, rp16;
-       uint32_t uninitialized_var(rp17);       /* to make compiler happy */
+       uint32_t rp17;
        uint32_t par;           /* the cumulative parity for all data */
        uint32_t tmppar;        /* the cumulative parity for this iteration;
                                   for rp12, rp14 and rp16 at the end of the
 
        int tacls_max = (info->cpu_type == TYPE_S3C2412) ? 8 : 4;
        int tacls, twrph0, twrph1;
        unsigned long clkrate = clk_get_rate(info->clk);
-       unsigned long uninitialized_var(set), cfg, uninitialized_var(mask);
+       unsigned long set, cfg, mask;
        unsigned long flags;
 
        /* calculate the timing information for the controller */
 
         * Static checks cannot see that we bail out if we have an error
         * reading the footer.
         */
-       u_int uninitialized_var(iis_ptr);
-       u_int uninitialized_var(img_ptr);
+       u_int iis_ptr;
+       u_int img_ptr;
        u_int ptr;
        size_t sz;
        int ret;
 
        int err, pnum, scrub = 0, vol_id = vol->vol_id;
        struct ubi_vid_io_buf *vidb;
        struct ubi_vid_hdr *vid_hdr;
-       uint32_t uninitialized_var(crc);
+       uint32_t crc;
 
        err = leb_read_lock(ubi, vol_id, lnum);
        if (err)
 
 
        /* process all communication messages */
        while (true) {
-               struct ican3_msg uninitialized_var(msg);
+               struct ican3_msg msg;
                ret = ican3_recv_msg(mod, &msg);
                if (ret)
                        break;
 
 static void
 bnx2_enable_forced_2g5(struct bnx2 *bp)
 {
-       u32 uninitialized_var(bmcr);
+       u32 bmcr;
        int err;
 
        if (!(bp->phy_flags & BNX2_PHY_FLAG_2_5G_CAPABLE))
 static void
 bnx2_disable_forced_2g5(struct bnx2 *bp)
 {
-       u32 uninitialized_var(bmcr);
+       u32 bmcr;
        int err;
 
        if (!(bp->phy_flags & BNX2_PHY_FLAG_2_5G_CAPABLE))
 
 
 int mlx5_satisfy_startup_pages(struct mlx5_core_dev *dev, int boot)
 {
-       u16 uninitialized_var(func_id);
-       s32 uninitialized_var(npages);
+       u16 func_id;
+       s32 npages;
        int err;
 
        err = mlx5_cmd_query_pages(dev, &func_id, &npages, boot);
 
        int ring_no = ring_data->ring_no;
        u16 l3_csum, l4_csum;
        unsigned long long err = rxdp->Control_1 & RXD_T_CODE;
-       struct lro *uninitialized_var(lro);
+       struct lro *lro;
        u8 err_mask;
        struct swStat *swstats = &sp->mac_control.stats_info->sw_stat;
 
 
        struct net_device *ndev = NULL;
        struct ql3_adapter *qdev = NULL;
        static int cards_found;
-       int uninitialized_var(pci_using_dac), err;
+       int pci_using_dac, err;
 
        err = pci_enable_device(pdev);
        if (err) {
 
        drops = 0;
        while (1) {
                struct cas_rx_comp *rxc = rxcs + entry;
-               struct sk_buff *uninitialized_var(skb);
+               struct sk_buff *skb;
                int type, len;
                u64 words[4];
                int i, dring;
 
        struct niu_link_config *lp = &np->link_config;
        u16 pll_cfg, pll_sts;
        int max_retry = 100;
-       u64 uninitialized_var(sig), mask, val;
+       u64 sig, mask, val;
        u32 tx_cfg, rx_cfg;
        unsigned long i;
        int err;
        struct niu_link_config *lp = &np->link_config;
        u32 tx_cfg, rx_cfg, pll_cfg, pll_sts;
        int max_retry = 100;
-       u64 uninitialized_var(sig), mask, val;
+       u64 sig, mask, val;
        unsigned long i;
        int err;
 
 
 static int esr_reset(struct niu *np)
 {
-       u32 uninitialized_var(reset);
+       u32 reset;
        int err;
 
        err = mdio_write(np, np->port, NIU_ESR_DEV_ADDR,
 
 irqreturn_t z8530_interrupt(int irq, void *dev_id)
 {
        struct z8530_dev *dev=dev_id;
-       u8 uninitialized_var(intr);
+       u8 intr;
        static volatile int locker=0;
        int work=0;
        struct z8530_irqhandler *irqs;
 
 
 static int ath10k_init_hw_params(struct ath10k *ar)
 {
-       const struct ath10k_hw_params *uninitialized_var(hw_params);
+       const struct ath10k_hw_params *hw_params;
        int i;
 
        for (i = 0; i < ARRAY_SIZE(ath10k_hw_params_list); i++) {
 
 
 int ath6kl_init_hw_params(struct ath6kl *ar)
 {
-       const struct ath6kl_hw *uninitialized_var(hw);
+       const struct ath6kl_hw *hw;
        int i;
 
        for (i = 0; i < ARRAY_SIZE(hw_list); i++) {
 
        struct ath_hw *ah = hw_priv;
        struct ath_common *common = ath9k_hw_common(ah);
        struct ath_softc *sc = (struct ath_softc *) common->priv;
-       unsigned long uninitialized_var(flags);
+       unsigned long flags;
        u32 val;
 
        if (NR_CPUS > 1 && ah->config.serialize_regmode == SER_REG_MODE_ON) {
 
        struct b43_wldev *dev;
        struct b43_debugfs_fops *dfops;
        struct b43_dfs_file *dfile;
-       ssize_t uninitialized_var(ret);
+       ssize_t ret;
        char *buf;
        const size_t bufsize = 1024 * 16; /* 16 kiB buffer */
        const size_t buforder = get_order(bufsize);
 
 static u32 b43_dma_address(struct b43_dma *dma, dma_addr_t dmaaddr,
                           enum b43_addrtype addrtype)
 {
-       u32 uninitialized_var(addr);
+       u32 addr;
 
        switch (addrtype) {
        case B43_DMA_ADDR_LOW:
 
        };
        int max_rx_gain;
        struct b43_lo_calib *cal;
-       struct lo_g_saved_values uninitialized_var(saved_regs);
+       struct lo_g_saved_values saved_regs;
        /* Values from the "TXCTL Register and Value Table" */
        u16 txctl_reg;
        u16 txctl_value;
 
        u8 rfctl[2];
        u8 afectl_core;
        u16 tmp[6];
-       u16 uninitialized_var(cur_hpf1), uninitialized_var(cur_hpf2), cur_lna;
+       u16 cur_hpf1, cur_hpf2, cur_lna;
        u32 real, imag;
        enum nl80211_band band;
 
 
        if ((rates[0].flags & IEEE80211_TX_RC_USE_RTS_CTS) ||
            (rates[0].flags & IEEE80211_TX_RC_USE_CTS_PROTECT)) {
                unsigned int len;
-               struct ieee80211_hdr *uninitialized_var(hdr);
+               struct ieee80211_hdr *hdr;
                int rts_rate, rts_rate_fb;
                int rts_rate_ofdm, rts_rate_fb_ofdm;
-               struct b43_plcp_hdr6 *uninitialized_var(plcp);
+               struct b43_plcp_hdr6 *plcp;
                struct ieee80211_rate *rts_cts_rate;
 
                rts_cts_rate = ieee80211_get_rts_cts_rate(dev->wl->hw, info);
                rts_rate_fb_ofdm = b43_is_ofdm_rate(rts_rate_fb);
 
                if (rates[0].flags & IEEE80211_TX_RC_USE_CTS_PROTECT) {
-                       struct ieee80211_cts *uninitialized_var(cts);
+                       struct ieee80211_cts *cts;
 
                        switch (dev->fw.hdr_format) {
                        case B43_FW_HDR_598:
                        mac_ctl |= B43_TXH_MAC_SENDCTS;
                        len = sizeof(struct ieee80211_cts);
                } else {
-                       struct ieee80211_rts *uninitialized_var(rts);
+                       struct ieee80211_rts *rts;
 
                        switch (dev->fw.hdr_format) {
                        case B43_FW_HDR_598:
        const struct b43_rxhdr_fw4 *rxhdr = _rxhdr;
        __le16 fctl;
        u16 phystat0, phystat3;
-       u16 uninitialized_var(chanstat), uninitialized_var(mactime);
-       u32 uninitialized_var(macstat);
+       u16 chanstat, mactime;
+       u32 macstat;
        u16 chanid;
        int padding, rate_idx;
 
 
        struct b43legacy_wldev *dev;
        struct b43legacy_debugfs_fops *dfops;
        struct b43legacy_dfs_file *dfile;
-       ssize_t uninitialized_var(ret);
+       ssize_t ret;
        char *buf;
        const size_t bufsize = 1024 * 16; /* 16 KiB buffer */
        const size_t buforder = get_order(bufsize);
 
 static int b43legacy_switch_phymode(struct b43legacy_wl *wl,
                                      unsigned int new_mode)
 {
-       struct b43legacy_wldev *uninitialized_var(up_dev);
+       struct b43legacy_wldev *up_dev;
        struct b43legacy_wldev *down_dev;
        int err;
        bool gmode = false;
 
 
                /* set tx power value for all OFDM rates */
                for (rate_idx = 0; rate_idx < IL_OFDM_RATES; rate_idx++) {
-                       s32 uninitialized_var(power_idx);
+                       s32 power_idx;
                        int rc;
 
                        /* use channel group's clip-power table,
 
        struct ieee80211_tx_info *info;
        struct il4965_tx_resp *tx_resp = (void *)&pkt->u.raw[0];
        u32 status = le32_to_cpu(tx_resp->u.status);
-       int uninitialized_var(tid);
+       int tid;
        int sta_id;
        int freed;
        u8 *qc = NULL;
 
                                                     u8 queue_sel)
 {
        u16 beq, bkq, viq, voq, mgtq, hiq;
-       u16 uninitialized_var(valuehi);
-       u16 uninitialized_var(valuelow);
+       u16 valuehi;
+       u16 valuelow;
 
        switch (queue_sel) {
        case (TX_SELE_HQ | TX_SELE_LQ):
 
 {
        struct pcie_device *dev = (struct pcie_device *)context;
        struct aer_rpc *rpc = get_service_data(dev);
-       struct aer_err_source uninitialized_var(e_src);
+       struct aer_err_source e_src;
 
        if (kfifo_is_empty(&rpc->aer_fifo))
                return IRQ_NONE;
 
 static ssize_t hdaps_temp1_show(struct device *dev,
                                struct device_attribute *attr, char *buf)
 {
-       u8 uninitialized_var(temp);
+       u8 temp;
        int ret;
 
        ret = hdaps_readb_one(HDAPS_PORT_TEMP1, &temp);
 static ssize_t hdaps_temp2_show(struct device *dev,
                                struct device_attribute *attr, char *buf)
 {
-       u8 uninitialized_var(temp);
+       u8 temp;
        int ret;
 
        ret = hdaps_readb_one(HDAPS_PORT_TEMP2, &temp);
 
        const unsigned srbs_per_page = PAGE_SIZE/SEGMENTX_LEN;
        int srb_idx = 0;
        unsigned i = 0;
-       struct SGentry *uninitialized_var(ptr);
+       struct SGentry *ptr;
 
        for (i = 0; i < DC395x_MAX_SRB_CNT; i++)
                acb->srb_array[i].segment_x = NULL;
 
 {
        struct outbound_queue_table *circularQ;
        void *pMsg1 = NULL;
-       u8 uninitialized_var(bc);
+       u8 bc;
        u32 ret = MPI_IO_STATUS_FAIL;
        unsigned long flags;
 
 
 {
        struct outbound_queue_table *circularQ;
        void *pMsg1 = NULL;
-       u8 uninitialized_var(bc);
+       u8 bc;
        u32 ret = MPI_IO_STATUS_FAIL;
        unsigned long flags;
        u32 regval;
 
 static enum ssb_clksrc chipco_pctl_get_slowclksrc(struct ssb_chipcommon *cc)
 {
        struct ssb_bus *bus = cc->dev->bus;
-       u32 uninitialized_var(tmp);
+       u32 tmp;
 
        if (cc->dev->id.revision < 6) {
                if (bus->bustype == SSB_BUSTYPE_SSB ||
 /* Get maximum or minimum (depending on get_max flag) slowclock frequency. */
 static int chipco_pctl_clockfreqlimit(struct ssb_chipcommon *cc, int get_max)
 {
-       int uninitialized_var(limit);
+       int limit;
        enum ssb_clksrc clocksrc;
        int divisor = 1;
        u32 tmp;
 
        struct cyclades_card *card;
        void __iomem *addr0 = NULL, *addr2 = NULL;
        char *card_name = NULL;
-       u32 uninitialized_var(mailbox);
+       u32 mailbox;
        unsigned int device_id, nchan = 0, card_no, i, j;
        unsigned char plx_ver;
        int retval, irq;
 
 static int isicom_probe(struct pci_dev *pdev,
        const struct pci_device_id *ent)
 {
-       unsigned int uninitialized_var(signature), index;
+       unsigned int signature, index;
        int retval = -EPERM;
        struct isi_board *board = NULL;
 
 
        struct musb_hw_ep       *hw_ep = NULL;
        u32                     rx, tx;
        int                     i, index;
-       unsigned long           uninitialized_var(flags);
+       unsigned long           flags;
 
        cppi = container_of(musb->dma_controller, struct cppi, controller);
        if (cppi->irq)
 
 
 static unsigned long sddr55_get_capacity(struct us_data *us) {
 
-       unsigned char uninitialized_var(manufacturerID);
-       unsigned char uninitialized_var(deviceID);
+       unsigned char manufacturerID;
+       unsigned char deviceID;
        int result;
        struct sddr55_card_info *info = (struct sddr55_card_info *)us->extra;
 
 
        struct tun_msg_ctl ctl;
        size_t len, total_len = 0;
        int err;
-       struct vhost_net_ubuf_ref *uninitialized_var(ubufs);
+       struct vhost_net_ubuf_ref *ubufs;
        bool zcopy_used;
        int sent_pkts = 0;
 
        /* len is always initialized before use since we are always called with
         * datalen > 0.
         */
-       u32 uninitialized_var(len);
+       u32 len;
 
        while (datalen > 0 && headcount < quota) {
                if (unlikely(seg >= UIO_MAXIOV)) {
 {
        struct vhost_net_virtqueue *nvq = &net->vqs[VHOST_NET_VQ_RX];
        struct vhost_virtqueue *vq = &nvq->vq;
-       unsigned uninitialized_var(in), log;
+       unsigned in, log;
        struct vhost_log *vq_log;
        struct msghdr msg = {
                .msg_name = NULL,
 
                unsigned int* in, unsigned int* feed, unsigned int* post,
                unsigned int* htotal2) {
        unsigned int fvco;
-       unsigned int uninitialized_var(p);
+       unsigned int p;
 
        fvco = matroxfb_PLL_mavenclock(&maven1000_pll, ctl, htotal, vtotal, in, feed, &p, htotal2);
        if (!fvco)
 
        for (x = 0; x < 8; x++) {
                unsigned int c;
-               unsigned int uninitialized_var(a), uninitialized_var(b),
-                            uninitialized_var(h2);
+               unsigned int a, b,
+                            h2;
                unsigned int h = ht + 2 + x;
 
                if (!matroxfb_mavenclock((m->mode == MATROXFB_OUTPUT_MODE_PAL) ? &maven_PAL : &maven_NTSC, h, vt, &a, &b, &c, &h2)) {
 
 
        wmb();
        {
-               unsigned char uninitialized_var(m);     /* ClkPreScale */
-               unsigned char uninitialized_var(n);     /* ClkFeedBackScale */
-               unsigned char uninitialized_var(p);     /* ClkPostScale */
+               unsigned char m;        /* ClkPreScale */
+               unsigned char n;        /* ClkFeedBackScale */
+               unsigned char p;        /* ClkPostScale */
                unsigned long pixclock = PICOS2KHZ(info->var.pixclock);
 
                (void)pm3fb_calculate_clock(pixclock, &m, &n, &p);
 
 )
 {
     int pixelDepth;
-    int uninitialized_var(VClk),uninitialized_var(m),
-        uninitialized_var(n),  uninitialized_var(p);
+    int VClk, m, n, p;
 
     /*
      * Save mode parameters.
 
        struct vring_virtqueue *vq = to_vvq(_vq);
        struct scatterlist *sg;
        struct vring_desc *desc;
-       unsigned int i, n, avail, descs_used, uninitialized_var(prev), err_idx;
+       unsigned int i, n, avail, descs_used, prev, err_idx;
        int head;
        bool indirect;
 
        struct vring_packed_desc *desc;
        struct scatterlist *sg;
        unsigned int i, n, c, descs_used, err_idx;
-       __le16 uninitialized_var(head_flags), flags;
-       u16 head, id, uninitialized_var(prev), curr, avail_used_flags;
+       __le16 head_flags, flags;
+       u16 head, id, prev, curr, avail_used_flags;
 
        START_USE(vq);
 
 
 static int afs_d_revalidate(struct dentry *dentry, unsigned int flags)
 {
        struct afs_vnode *vnode, *dir;
-       struct afs_fid uninitialized_var(fid);
+       struct afs_fid fid;
        struct dentry *parent;
        struct inode *inode;
        struct key *key;
 
 int afs_permission(struct inode *inode, int mask)
 {
        struct afs_vnode *vnode = AFS_FS_I(inode);
-       afs_access_t uninitialized_var(access);
+       afs_access_t access;
        struct key *key;
        int ret = 0;
 
 
 
 void dlm_timeout_warn(struct dlm_lkb *lkb)
 {
-       struct sk_buff *uninitialized_var(send_skb);
+       struct sk_buff *send_skb;
        struct dlm_lock_data *data;
        size_t size;
        int rv;
 
  */
 static int erofs_raw_access_readpage(struct file *file, struct page *page)
 {
-       erofs_off_t uninitialized_var(last_block);
+       erofs_off_t last_block;
        struct bio *bio;
 
        trace_erofs_readpage(page, true);
 
 static void erofs_raw_access_readahead(struct readahead_control *rac)
 {
-       erofs_off_t uninitialized_var(last_block);
+       erofs_off_t last_block;
        struct bio *bio = NULL;
        struct page *page;
 
 
        struct z_erofs_decompressqueue *q[NR_JOBQUEUES];
        void *bi_private;
        /* since bio will be NULL, no need to initialize last_index */
-       pgoff_t uninitialized_var(last_index);
+       pgoff_t last_index;
        unsigned int nr_bios = 0;
        struct bio *bio = NULL;
 
 
        struct super_block *sb = dir->i_sb;
        struct msdos_sb_info *sbi = MSDOS_SB(sb);
        struct buffer_head *bh, *prev, *bhs[3]; /* 32*slots (672bytes) */
-       struct msdos_dir_entry *uninitialized_var(de);
+       struct msdos_dir_entry *de;
        int err, free_slots, i, nr_bhs;
        loff_t pos, i_pos;
 
 
                                              const char __user *buf,
                                              size_t count, loff_t *ppos)
 {
-       unsigned uninitialized_var(val);
+       unsigned val;
        ssize_t ret;
 
        ret = fuse_conn_limit_write(file, buf, count, ppos, &val,
                                                    const char __user *buf,
                                                    size_t count, loff_t *ppos)
 {
-       unsigned uninitialized_var(val);
+       unsigned val;
        struct fuse_conn *fc;
        ssize_t ret;
 
 
 static int cuse_parse_devinfo(char *p, size_t len, struct cuse_devinfo *devinfo)
 {
        char *end = p + len;
-       char *uninitialized_var(key), *uninitialized_var(val);
+       char *key, *val;
        int rc;
 
        while (true) {
 
 {
        spin_lock(&fc->lock);
        if (RB_EMPTY_NODE(&ff->polled_node)) {
-               struct rb_node **link, *uninitialized_var(parent);
+               struct rb_node **link, *parent;
 
                link = fuse_find_polled_node(fc, ff->kh, &parent);
                BUG_ON(*link);
 
        int done = 0;
        struct pagevec pvec;
        int nr_pages;
-       pgoff_t uninitialized_var(writeback_index);
+       pgoff_t writeback_index;
        pgoff_t index;
        pgoff_t end;
        pgoff_t done_index;
 
        u64 lblock = (offset + (1 << bsize_shift) - 1) >> bsize_shift;
        __u16 start_list[GFS2_MAX_META_HEIGHT];
        __u16 __end_list[GFS2_MAX_META_HEIGHT], *end_list = NULL;
-       unsigned int start_aligned, uninitialized_var(end_aligned);
+       unsigned int start_aligned, end_aligned;
        unsigned int strip_h = ip->i_height - 1;
        u32 btotal = 0;
        int ret, state;
 
                              struct page *page)
 {
        struct gfs2_sbd *sdp = GFS2_SB(jd->jd_inode);
-       struct gfs2_log_header_host uninitialized_var(lh);
+       struct gfs2_log_header_host lh;
        void *kaddr = kmap_atomic(page);
        unsigned int offset;
        bool ret = false;
 
        astr = str->name;
        len = str->len;
        while (len > 0) {
-               int uninitialized_var(dsize);
+               int dsize;
                size = asc2unichar(sb, astr, len, &c);
                astr += size;
                len -= size;
 
 struct dentry *isofs_lookup(struct inode *dir, struct dentry *dentry, unsigned int flags)
 {
        int found;
-       unsigned long uninitialized_var(block);
-       unsigned long uninitialized_var(offset);
+       unsigned long block;
+       unsigned long offset;
        struct inode *inode;
        struct page *page;
 
 
 {
        size_t retlen;
        int ret;
-       uint32_t uninitialized_var(bad_offset);
+       uint32_t bad_offset;
 
        switch (jffs2_block_check_erase(c, jeb, &bad_offset)) {
        case -EAGAIN:   goto refile;
 
 static ssize_t write_filehandle(struct file *file, char *buf, size_t size)
 {
        char *dname, *path;
-       int uninitialized_var(maxsize);
+       int maxsize;
        char *mesg = buf;
        int len;
        struct auth_domain *dom;
 
                        struct ocfs2_alloc_context *meta_ac)
 {
        int status;
-       int uninitialized_var(free_records);
+       int free_records;
        struct buffer_head *last_eb_bh = NULL;
        struct ocfs2_insert_type insert = {0, };
        struct ocfs2_extent_rec rec;
        int need_free = 0;
        u32 bit_off, num;
        handle_t *handle;
-       u64 uninitialized_var(block);
+       u64 block;
        struct ocfs2_inode_info *oi = OCFS2_I(inode);
        struct ocfs2_super *osb = OCFS2_SB(inode->i_sb);
        struct ocfs2_dinode *di = (struct ocfs2_dinode *)di_bh->b_data;
 
                               u64 *ret_phys_blkno)
 {
        int ret = 0;
-       unsigned int cend, uninitialized_var(clen);
-       u32 uninitialized_var(cpos);
-       u64 uninitialized_var(blkno);
+       unsigned int cend, clen;
+       u32 cpos;
+       u64 blkno;
        u32 name_hash = hinfo->major_hash;
 
        ret = ocfs2_dx_dir_lookup_rec(inode, el, name_hash, &cpos, &blkno,
                               struct ocfs2_dir_lookup_result *res)
 {
        int ret, i, found;
-       u64 uninitialized_var(phys);
+       u64 phys;
        struct buffer_head *dx_leaf_bh = NULL;
        struct ocfs2_dx_leaf *dx_leaf;
        struct ocfs2_dx_entry *dx_entry = NULL;
 int ocfs2_dx_dir_truncate(struct inode *dir, struct buffer_head *di_bh)
 {
        int ret;
-       unsigned int uninitialized_var(clen);
-       u32 major_hash = UINT_MAX, p_cpos, uninitialized_var(cpos);
-       u64 uninitialized_var(blkno);
+       unsigned int clen;
+       u32 major_hash = UINT_MAX, p_cpos, cpos;
+       u64 blkno;
        struct ocfs2_super *osb = OCFS2_SB(dir->i_sb);
        struct buffer_head *dx_root_bh = NULL;
        struct ocfs2_dx_root_block *dx_root;
 
 {
        int i, ret, tree_height, len;
        struct ocfs2_dinode *di;
-       struct ocfs2_extent_block *uninitialized_var(eb);
+       struct ocfs2_extent_block *eb;
        struct ocfs2_extent_list *el;
        struct ocfs2_extent_rec *rec;
        struct buffer_head *eb_bh = NULL;
                       unsigned int *extent_flags)
 {
        int ret;
-       unsigned int uninitialized_var(hole_len), flags = 0;
+       unsigned int hole_len, flags = 0;
        struct buffer_head *di_bh = NULL;
        struct ocfs2_extent_rec rec;
 
 
        struct buffer_head *new_di_bh = NULL;
        struct ocfs2_alloc_context *inode_ac = NULL;
        struct ocfs2_dir_lookup_result orphan_insert = { NULL, };
-       u64 uninitialized_var(di_blkno), suballoc_loc;
+       u64 di_blkno, suballoc_loc;
        u16 suballoc_bit;
 
        status = ocfs2_inode_lock(dir, &parent_di_bh, 1);
 
                                  struct buffer_head **ret_bh)
 {
        int ret = 0, i, found;
-       u32 low_cpos, uninitialized_var(cpos_end);
+       u32 low_cpos, cpos_end;
        struct ocfs2_extent_list *el;
        struct ocfs2_extent_rec *rec = NULL;
        struct ocfs2_extent_block *eb = NULL;
 
        struct ocfs2_xattr_value_root *xv;
        size_t size;
        int ret = -ENODATA, name_offset, name_len, i;
-       int uninitialized_var(block_off);
+       int block_off;
 
        xs->bucket = ocfs2_xattr_bucket_new(inode);
        if (!xs->bucket) {
 
        struct buffer_head *bh;
        sector_t next, offset;
        int ret;
-       u64 uninitialized_var(new_block);
+       u64 new_block;
        u32 max_extents;
        int extent_count;
        struct omfs_extent *oe;
 
        struct path upperpath, datapath;
        int err;
        char *capability = NULL;
-       ssize_t uninitialized_var(cap_size);
+       ssize_t cap_size;
 
        ovl_path_upper(c->dentry, &upperpath);
        if (WARN_ON(upperpath.dentry == NULL))
 
  */
 int dbg_check_old_index(struct ubifs_info *c, struct ubifs_zbranch *zroot)
 {
-       int lnum, offs, len, err = 0, uninitialized_var(last_level), child_cnt;
+       int lnum, offs, len, err = 0, last_level, child_cnt;
        int first = 1, iip;
        struct ubifs_debug_info *d = c->dbg;
-       union ubifs_key uninitialized_var(lower_key), upper_key, l_key, u_key;
-       unsigned long long uninitialized_var(last_sqnum);
+       union ubifs_key lower_key, upper_key, l_key, u_key;
+       unsigned long long last_sqnum;
        struct ubifs_idx_node *idx;
        struct list_head list;
        struct idx_node *i;
 
        struct ubifs_budget_req ino_req = { .dirtied_ino = 1,
                        .dirtied_ino_d = ALIGN(old_inode_ui->data_len, 8) };
        struct timespec64 time;
-       unsigned int uninitialized_var(saved_nlink);
+       unsigned int saved_nlink;
        struct fscrypt_name old_nm, new_nm;
 
        /*
 
        struct ubifs_info *c = inode->i_sb->s_fs_info;
        pgoff_t index = pos >> PAGE_SHIFT;
        struct ubifs_budget_req req = { .new_page = 1 };
-       int uninitialized_var(err), appending = !!(pos + len > inode->i_size);
+       int err, appending = !!(pos + len > inode->i_size);
        struct page *page;
 
        dbg_gen("ino %lu, pos %llu, len %u, i_size %lld",
        struct ubifs_info *c = inode->i_sb->s_fs_info;
        struct ubifs_inode *ui = ubifs_inode(inode);
        pgoff_t index = pos >> PAGE_SHIFT;
-       int uninitialized_var(err), appending = !!(pos + len > inode->i_size);
+       int err, appending = !!(pos + len > inode->i_size);
        int skipped_read = 0;
        struct page *page;
 
 
        int aligned_dlen1, aligned_dlen2, plen = UBIFS_INO_NODE_SZ;
        int last_reference = !!(new_inode && new_inode->i_nlink == 0);
        int move = (old_dir != new_dir);
-       struct ubifs_inode *uninitialized_var(new_ui);
+       struct ubifs_inode *new_ui;
        u8 hash_old_dir[UBIFS_HASH_ARR_SZ];
        u8 hash_new_dir[UBIFS_HASH_ARR_SZ];
        u8 hash_new_inode[UBIFS_HASH_ARR_SZ];
        union ubifs_key key, to_key;
        struct ubifs_ino_node *ino;
        struct ubifs_trun_node *trun;
-       struct ubifs_data_node *uninitialized_var(dn);
+       struct ubifs_data_node *dn;
        int err, dlen, len, lnum, offs, bit, sz, sync = IS_SYNC(inode);
        struct ubifs_inode *ui = ubifs_inode(inode);
        ino_t inum = inode->i_ino;
 
        const int k = 32 - nrbits;
        uint8_t *p = *addr;
        int b = *pos;
-       uint32_t uninitialized_var(val);
+       uint32_t val;
        const int bytes = (nrbits + b + 7) >> 3;
 
        ubifs_assert(c, nrbits > 0);
 
                                      int adding)
 {
        struct ubifs_znode *o_znode = NULL, *znode = *zn;
-       int uninitialized_var(o_n), err, cmp, unsure = 0, nn = *n;
+       int o_n, err, cmp, unsure = 0, nn = *n;
 
        cmp = fallible_matches_name(c, &znode->zbranch[nn], nm);
        if (unlikely(cmp < 0))
  */
 int ubifs_tnc_get_bu_keys(struct ubifs_info *c, struct bu_info *bu)
 {
-       int n, err = 0, lnum = -1, uninitialized_var(offs);
-       int uninitialized_var(len);
+       int n, err = 0, lnum = -1, offs;
+       int len;
        unsigned int block = key_block(c, &bu->key);
        struct ubifs_znode *znode;
 
 
                         const struct ubifs_znode *znode,
                         const union ubifs_key *key, int *n)
 {
-       int beg = 0, end = znode->child_cnt, uninitialized_var(mid);
-       int uninitialized_var(cmp);
+       int beg = 0, end = znode->child_cnt, mid;
+       int cmp;
        const struct ubifs_zbranch *zbr = &znode->zbranch[0];
 
        ubifs_assert(c, end > beg);
 
        udf_pblk_t newblock = 0;
        uint32_t adsize;
        uint32_t elen, goal_elen = 0;
-       struct kernel_lb_addr eloc, uninitialized_var(goal_eloc);
+       struct kernel_lb_addr eloc, goal_eloc;
        struct extent_position epos, goal_epos;
        int8_t etype;
        struct udf_inode_info *iinfo = UDF_I(table);
 
         * pick an extent that will space things out in the rt area.
         */
        if (ap->eof && ap->offset == 0) {
-               xfs_rtblock_t uninitialized_var(rtx); /* realtime extent no */
+               xfs_rtblock_t rtx; /* realtime extent no */
 
                error = xfs_rtpick_extent(mp, ap->tp, ralen, &rtx);
                if (error)
 
                                 struct netlink_ext_ack *extack)
 {
        const struct flow_action_entry *action_entry;
-       u8 uninitialized_var(last_hw_stats);
+       u8 last_hw_stats;
        int i;
 
        if (flow_offload_has_one_action(action))
 
        struct async_entry *entry =
                container_of(work, struct async_entry, work);
        unsigned long flags;
-       ktime_t uninitialized_var(calltime), delta, rettime;
+       ktime_t calltime, delta, rettime;
 
        /* 1) run (and print duration) */
        if (initcall_debug && system_state < SYSTEM_RUNNING) {
  */
 void async_synchronize_cookie_domain(async_cookie_t cookie, struct async_domain *domain)
 {
-       ktime_t uninitialized_var(starttime), delta, endtime;
+       ktime_t starttime, delta, endtime;
 
        if (initcall_debug && system_state < SYSTEM_RUNNING) {
                pr_debug("async_waiting @ %i\n", task_pid_nr(current));
 
 {
        struct audit_buffer *ab;
        struct timespec64 t;
-       unsigned int uninitialized_var(serial);
+       unsigned int serial;
 
        if (audit_initialized != AUDIT_INITIALIZED)
                return NULL;
 
        int this_cpu, old_cpu;
        char *cp, *cp2, *cphold = NULL, replaced_byte = ' ';
        char *moreprompt = "more> ";
-       unsigned long uninitialized_var(flags);
+       unsigned long flags;
 
        /* Serialize kdb_printf if multiple cpus try to write at once.
         * But if any cpu goes recursive in kdb, just print the output,
 
 static int dma_debug_device_change(struct notifier_block *nb, unsigned long action, void *data)
 {
        struct device *dev = data;
-       struct dma_debug_entry *uninitialized_var(entry);
+       struct dma_debug_entry *entry;
        int count;
 
        if (dma_debug_disabled())
 
        struct perf_event *group_leader = NULL, *output_event = NULL;
        struct perf_event *event, *sibling;
        struct perf_event_attr attr;
-       struct perf_event_context *ctx, *uninitialized_var(gctx);
+       struct perf_event_context *ctx, *gctx;
        struct file *event_file = NULL;
        struct fd group = {NULL, 0};
        struct task_struct *task = NULL;
 
 {
        struct uprobe *uprobe;
        unsigned long bp_vaddr;
-       int uninitialized_var(is_swbp);
+       int is_swbp;
 
        bp_vaddr = uprobe_get_swbp_addr(regs);
        if (bp_vaddr == get_trampoline_vaddr())
 
        struct signal_struct *sig = tsk->signal;
        bool group_dead = thread_group_leader(tsk);
        struct sighand_struct *sighand;
-       struct tty_struct *uninitialized_var(tty);
+       struct tty_struct *tty;
        u64 utime, stime;
 
        sighand = rcu_dereference_check(tsk->sighand,
 
 static int lock_pi_update_atomic(u32 __user *uaddr, u32 uval, u32 newval)
 {
        int err;
-       u32 uninitialized_var(curval);
+       u32 curval;
 
        if (unlikely(should_fail_futex(true)))
                return -EFAULT;
  */
 static int wake_futex_pi(u32 __user *uaddr, u32 uval, struct futex_pi_state *pi_state)
 {
-       u32 uninitialized_var(curval), newval;
+       u32 curval, newval;
        struct task_struct *new_owner;
        bool postunlock = false;
        DEFINE_WAKE_Q(wake_q);
                                struct task_struct *argowner)
 {
        struct futex_pi_state *pi_state = q->pi_state;
-       u32 uval, uninitialized_var(curval), newval;
+       u32 uval, curval, newval;
        struct task_struct *oldowner, *newowner;
        u32 newtid;
        int ret, err = 0;
  */
 static int futex_unlock_pi(u32 __user *uaddr, unsigned int flags)
 {
-       u32 uninitialized_var(curval), uval, vpid = task_pid_vnr(current);
+       u32 curval, uval, vpid = task_pid_vnr(current);
        union futex_key key = FUTEX_KEY_INIT;
        struct futex_hash_bucket *hb;
        struct futex_q *top_waiter;
 static int handle_futex_death(u32 __user *uaddr, struct task_struct *curr,
                              bool pi, bool pending_op)
 {
-       u32 uval, uninitialized_var(nval), mval;
+       u32 uval, nval, mval;
        int err;
 
        /* Futex address must be 32bit aligned */
        struct robust_list_head __user *head = curr->robust_list;
        struct robust_list __user *entry, *next_entry, *pending;
        unsigned int limit = ROBUST_LIST_LIMIT, pi, pip;
-       unsigned int uninitialized_var(next_pi);
+       unsigned int next_pi;
        unsigned long futex_offset;
        int rc;
 
        struct compat_robust_list_head __user *head = curr->compat_robust_list;
        struct robust_list __user *entry, *next_entry, *pending;
        unsigned int limit = ROBUST_LIST_LIMIT, pi, pip;
-       unsigned int uninitialized_var(next_pi);
+       unsigned int next_pi;
        compat_uptr_t uentry, next_uentry, upending;
        compat_long_t futex_offset;
        int rc;
 
 static unsigned long __lockdep_count_forward_deps(struct lock_list *this)
 {
        unsigned long  count = 0;
-       struct lock_list *uninitialized_var(target_entry);
+       struct lock_list *target_entry;
 
        __bfs_forwards(this, (void *)&count, noop_count, &target_entry);
 
 static unsigned long __lockdep_count_backward_deps(struct lock_list *this)
 {
        unsigned long  count = 0;
-       struct lock_list *uninitialized_var(target_entry);
+       struct lock_list *target_entry;
 
        __bfs_backwards(this, (void *)&count, noop_count, &target_entry);
 
                  struct lock_trace **const trace)
 {
        int ret;
-       struct lock_list *uninitialized_var(target_entry);
+       struct lock_list *target_entry;
        struct lock_list src_entry = {
                .class = hlock_class(src),
                .parent = NULL,
 check_redundant(struct held_lock *src, struct held_lock *target)
 {
        int ret;
-       struct lock_list *uninitialized_var(target_entry);
+       struct lock_list *target_entry;
        struct lock_list src_entry = {
                .class = hlock_class(src),
                .parent = NULL,
 {
        unsigned long usage_mask = 0, forward_mask, backward_mask;
        enum lock_usage_bit forward_bit = 0, backward_bit = 0;
-       struct lock_list *uninitialized_var(target_entry1);
-       struct lock_list *uninitialized_var(target_entry);
+       struct lock_list *target_entry1;
+       struct lock_list *target_entry;
        struct lock_list this, that;
        int ret;
 
 {
        int ret;
        struct lock_list root;
-       struct lock_list *uninitialized_var(target_entry);
+       struct lock_list *target_entry;
 
        root.parent = NULL;
        root.class = hlock_class(this);
 {
        int ret;
        struct lock_list root;
-       struct lock_list *uninitialized_var(target_entry);
+       struct lock_list *target_entry;
 
        root.parent = NULL;
        root.class = hlock_class(this);
 
  */
 int ring_buffer_wait(struct trace_buffer *buffer, int cpu, int full)
 {
-       struct ring_buffer_per_cpu *uninitialized_var(cpu_buffer);
+       struct ring_buffer_per_cpu *cpu_buffer;
        DEFINE_WAIT(wait);
        struct rb_irq_work *work;
        int ret = 0;
 
 {
        struct radix_tree_node *node, *parent;
        unsigned long maxindex;
-       int uninitialized_var(offset);
+       int offset;
 
        radix_tree_load_root(root, &node, &maxindex);
        if (index > maxindex)
 
 
 static void test_lock(bool master, bool verbose)
 {
-       u64 uninitialized_var(wait_start);
+       u64 wait_start;
 
        if (measure_lock_wait)
                wait_start = local_clock();
 
 void frontswap_shrink(unsigned long target_pages)
 {
        unsigned long pages_to_unuse = 0;
-       int uninitialized_var(type), ret;
+       int type, ret;
 
        /*
         * we don't want to hold swap_lock while doing a very
 
 static void ksm_do_scan(unsigned int scan_npages)
 {
        struct rmap_item *rmap_item;
-       struct page *uninitialized_var(page);
+       struct page *page;
 
        while (scan_npages-- && likely(!freezing(current))) {
                cond_resched();
 
                                   struct mem_cgroup *prev,
                                   struct mem_cgroup_reclaim_cookie *reclaim)
 {
-       struct mem_cgroup_reclaim_iter *uninitialized_var(iter);
+       struct mem_cgroup_reclaim_iter *iter;
        struct cgroup_subsys_state *css = NULL;
        struct mem_cgroup *memcg = NULL;
        struct mem_cgroup *pos = NULL;
 
 {
        pte_t *pte;
        int err = 0;
-       spinlock_t *uninitialized_var(ptl);
+       spinlock_t *ptl;
 
        if (create) {
                pte = (mm == &init_mm) ?
 
 static struct page *new_page(struct page *page, unsigned long start)
 {
        struct vm_area_struct *vma;
-       unsigned long uninitialized_var(address);
+       unsigned long address;
 
        vma = find_vma(current->mm, start);
        while (vma) {
                                unsigned long flags)
 {
        int err;
-       int uninitialized_var(pval);
+       int pval;
        nodemask_t nodes;
 
        addr = untagged_addr(addr);
 
                int migratetype, bool report)
 {
        struct capture_control *capc = task_capc(zone);
-       unsigned long uninitialized_var(buddy_pfn);
+       unsigned long buddy_pfn;
        unsigned long combined_pfn;
        unsigned int max_order;
        struct page *buddy;
 
        const size_t static_size = __per_cpu_end - __per_cpu_start;
        int nr_groups = 1, nr_units = 0;
        size_t size_sum, min_unit_size, alloc_size;
-       int upa, max_upa, uninitialized_var(best_upa);  /* units_per_alloc */
+       int upa, max_upa, best_upa;     /* units_per_alloc */
        int last_allocs, group, unit;
        unsigned int cpu, tcpu;
        struct pcpu_alloc_info *ai;
 
        struct kmem_cache_node *n = get_node(s, page_to_nid(page));
        void *object = head;
        int cnt = 0;
-       unsigned long uninitialized_var(flags);
+       unsigned long flags;
        int ret = 0;
 
        spin_lock_irqsave(&n->list_lock, flags);
        struct page new;
        unsigned long counters;
        struct kmem_cache_node *n = NULL;
-       unsigned long uninitialized_var(flags);
+       unsigned long flags;
 
        stat(s, FREE_SLOWPATH);
 
 
        LIST_HEAD(pages_to_free);
        struct pglist_data *locked_pgdat = NULL;
        struct lruvec *lruvec;
-       unsigned long uninitialized_var(flags);
-       unsigned int uninitialized_var(lock_batch);
+       unsigned long flags;
+       unsigned int lock_batch;
 
        for (i = 0; i < nr; i++) {
                struct page *page = pages[i];
 
                                        (dh->dccph_doff * 4);
        struct dccp_options_received *opt_recv = &dp->dccps_options_received;
        unsigned char opt, len;
-       unsigned char *uninitialized_var(value);
+       unsigned char *value;
        u32 elapsed_time;
        __be32 opt_val;
        int rc;
 
 struct sock *nf_sk_lookup_slow_v4(struct net *net, const struct sk_buff *skb,
                                  const struct net_device *indev)
 {
-       __be32 uninitialized_var(daddr), uninitialized_var(saddr);
-       __be16 uninitialized_var(dport), uninitialized_var(sport);
+       __be32 daddr, saddr;
+       __be16 dport, sport;
        const struct iphdr *iph = ip_hdr(skb);
        struct sk_buff *data_skb = NULL;
-       u8 uninitialized_var(protocol);
+       u8 protocol;
 #if IS_ENABLED(CONFIG_NF_CONNTRACK)
        enum ip_conntrack_info ctinfo;
        struct nf_conn const *ct;
 
 
 int ipv6_flowlabel_opt(struct sock *sk, char __user *optval, int optlen)
 {
-       int uninitialized_var(err);
+       int err;
        struct net *net = sock_net(sk);
        struct ipv6_pinfo *np = inet6_sk(sk);
        struct in6_flowlabel_req freq;
 
 struct sock *nf_sk_lookup_slow_v6(struct net *net, const struct sk_buff *skb,
                                  const struct net_device *indev)
 {
-       __be16 uninitialized_var(dport), uninitialized_var(sport);
+       __be16 dport, sport;
        const struct in6_addr *daddr = NULL, *saddr = NULL;
        struct ipv6hdr *iph = ipv6_hdr(skb);
        struct sk_buff *data_skb = NULL;
 
        int ret;
        u32 seq;
        int dir = CTINFO2DIR(ctinfo);
-       unsigned int uninitialized_var(matchlen), uninitialized_var(matchoff);
+       unsigned int matchlen, matchoff;
        struct nf_ct_ftp_master *ct_ftp_info = nfct_help_data(ct);
        struct nf_conntrack_expect *exp;
        union nf_inet_addr *daddr;
 
        struct nfnl_log_net *log = nfnl_log_pernet(net);
        const struct nfnl_ct_hook *nfnl_ct = NULL;
        struct nf_conn *ct = NULL;
-       enum ip_conntrack_info uninitialized_var(ctinfo);
+       enum ip_conntrack_info ctinfo;
 
        if (li_user && li_user->type == NF_LOG_TYPE_ULOG)
                li = li_user;
 
        struct net_device *indev;
        struct net_device *outdev;
        struct nf_conn *ct = NULL;
-       enum ip_conntrack_info uninitialized_var(ctinfo);
+       enum ip_conntrack_info ctinfo;
        struct nfnl_ct_hook *nfnl_ct;
        bool csum_verify;
        char *secdata = NULL;
        struct nfqnl_instance *queue;
        unsigned int verdict;
        struct nf_queue_entry *entry;
-       enum ip_conntrack_info uninitialized_var(ctinfo);
+       enum ip_conntrack_info ctinfo;
        struct nfnl_ct_hook *nfnl_ct;
        struct nf_conn *ct = NULL;
        struct nfnl_queue_net *q = nfnl_queue_pernet(net);
 
 
 static u32 flow_get_vlan_tag(const struct sk_buff *skb)
 {
-       u16 uninitialized_var(tag);
+       u16 tag;
 
        if (vlan_get_tag(skb, &tag) < 0)
                return 0;
 
 {
        struct cake_sched_data *q = qdisc_priv(sch);
        int len = qdisc_pkt_len(skb);
-       int uninitialized_var(ret);
+       int ret;
        struct sk_buff *ack = NULL;
        ktime_t now = ktime_get();
        struct cake_tin_data *b;
 
            struct sk_buff **to_free)
 {
        struct cbq_sched_data *q = qdisc_priv(sch);
-       int uninitialized_var(ret);
+       int ret;
        struct cbq_class *cl = cbq_classify(skb, sch, &ret);
 
 #ifdef CONFIG_NET_CLS_ACT
 
        struct fq_codel_sched_data *q = qdisc_priv(sch);
        unsigned int idx, prev_backlog, prev_qlen;
        struct fq_codel_flow *flow;
-       int uninitialized_var(ret);
+       int ret;
        unsigned int pkt_len;
        bool memory_limited;
 
 
 {
        struct fq_pie_sched_data *q = qdisc_priv(sch);
        struct fq_pie_flow *sel_flow;
-       int uninitialized_var(ret);
+       int ret;
        u8 memory_limited = false;
        u8 enqueue = false;
        u32 pkt_len;
 
 {
        unsigned int len = qdisc_pkt_len(skb);
        struct hfsc_class *cl;
-       int uninitialized_var(err);
+       int err;
        bool first;
 
        cl = hfsc_classify(skb, sch, &err);
 
 static int htb_enqueue(struct sk_buff *skb, struct Qdisc *sch,
                       struct sk_buff **to_free)
 {
-       int uninitialized_var(ret);
+       int ret;
        unsigned int len = qdisc_pkt_len(skb);
        struct htb_sched *q = qdisc_priv(sch);
        struct htb_class *cl = htb_classify(skb, sch, &ret);
 
        unsigned int hash, dropped;
        sfq_index x, qlen;
        struct sfq_slot *slot;
-       int uninitialized_var(ret);
+       int ret;
        struct sk_buff *head;
        int delta;
 
 
                .msg_control    = cmh,
                .msg_controllen = sizeof(buffer),
        };
-       unsigned int uninitialized_var(sent);
+       unsigned int sent;
        int err;
 
        svc_udp_release_rqst(rqstp);
        struct msghdr msg = {
                .msg_flags      = 0,
        };
-       unsigned int uninitialized_var(sent);
+       unsigned int sent;
        int err;
 
        svc_tcp_release_rqst(rqstp);
 
                int flags, struct rpc_rqst *req)
 {
        struct xdr_buf *buf = &req->rq_private_buf;
-       size_t want, uninitialized_var(read);
-       ssize_t uninitialized_var(ret);
+       size_t want, read;
+       ssize_t ret;
 
        xs_read_header(transport, buf);
 
        struct msghdr msg = {
                .msg_flags      = XS_SENDMSG_FLAGS,
        };
-       unsigned int uninitialized_var(sent);
+       unsigned int sent;
        int status;
 
        /* Close the stream if the previous transmission was incomplete */
                .msg_namelen    = xprt->addrlen,
                .msg_flags      = XS_SENDMSG_FLAGS,
        };
-       unsigned int uninitialized_var(sent);
+       unsigned int sent;
        int status;
 
        xs_pktdump("packet data:",
                .msg_flags      = XS_SENDMSG_FLAGS,
        };
        bool vm_wait = false;
-       unsigned int uninitialized_var(sent);
+       unsigned int sent;
        int status;
 
        /* Close the stream if the previous transmission was incomplete */
 
        struct tls_prot_info *prot = &tls_ctx->prot_info;
        struct tls_sw_context_tx *ctx = tls_sw_ctx_tx(tls_ctx);
        struct tls_rec *rec = ctx->open_rec, *tmp = NULL;
-       u32 i, split_point, uninitialized_var(orig_end);
+       u32 i, split_point, orig_end;
        struct sk_msg *msg_pl, *msg_en;
        struct aead_request *req;
        bool split;
 
 {
        struct snd_ctl_elem_value32 __user *data32 = userdata;
        int i, type, size;
-       int uninitialized_var(count);
+       int count;
        unsigned int indirect;
 
        if (copy_from_user(&data->id, &data32->id, sizeof(data->id)))
 
 int snd_sb_csp_new(struct snd_sb *chip, int device, struct snd_hwdep ** rhwdep)
 {
        struct snd_sb_csp *p;
-       int uninitialized_var(version);
+       int version;
        int err;
        struct snd_hwdep *hw;
 
 
        while (test_bit(EP_FLAG_RUNNING, &ep->flags)) {
 
                unsigned long flags;
-               struct snd_usb_packet_info *uninitialized_var(packet);
+               struct snd_usb_packet_info *packet;
                struct snd_urb_ctx *ctx = NULL;
                int err, i;