rwlock_t                lock;
        u32                     rnd;
        int                     nqueues;
+       int                     qsize;
        atomic_t                mem;
        struct timer_list       secret_timer;
        struct inet_frags_ctl   *ctl;
 
        unsigned int            (*hashfn)(struct inet_frag_queue *);
+       void                    (*destructor)(struct inet_frag_queue *);
+       void                    (*skb_free)(struct sk_buff *);
 };
 
 void inet_frags_init(struct inet_frags *);
 void inet_frags_fini(struct inet_frags *);
 
 void inet_frag_kill(struct inet_frag_queue *q, struct inet_frags *f);
+void inet_frag_destroy(struct inet_frag_queue *q,
+                               struct inet_frags *f, int *work);
 
 #endif
 
 #include <linux/timer.h>
 #include <linux/mm.h>
 #include <linux/random.h>
+#include <linux/skbuff.h>
+#include <linux/rtnetlink.h>
 
 #include <net/inet_frag.h>
 
 }
 
 EXPORT_SYMBOL(inet_frag_kill);
+
+static inline void frag_kfree_skb(struct inet_frags *f, struct sk_buff *skb,
+                                               int *work)
+{
+       if (work)
+               *work -= skb->truesize;
+
+       atomic_sub(skb->truesize, &f->mem);
+       if (f->skb_free)
+               f->skb_free(skb);
+       kfree_skb(skb);
+}
+
+void inet_frag_destroy(struct inet_frag_queue *q, struct inet_frags *f,
+                                       int *work)
+{
+       struct sk_buff *fp;
+
+       BUG_TRAP(q->last_in & COMPLETE);
+       BUG_TRAP(del_timer(&q->timer) == 0);
+
+       /* Release all fragment data. */
+       fp = q->fragments;
+       while (fp) {
+               struct sk_buff *xp = fp->next;
+
+               frag_kfree_skb(f, fp, work);
+               fp = xp;
+       }
+
+       if (work)
+               *work -= f->qsize;
+       atomic_sub(f->qsize, &f->mem);
+
+       f->destructor(q);
+
+}
+EXPORT_SYMBOL(inet_frag_destroy);
 
        kfree_skb(skb);
 }
 
-static __inline__ void frag_free_queue(struct ipq *qp, int *work)
+static __inline__ void ip4_frag_free(struct inet_frag_queue *q)
 {
-       if (work)
-               *work -= sizeof(struct ipq);
-       atomic_sub(sizeof(struct ipq), &ip4_frags.mem);
+       struct ipq *qp;
+
+       qp = container_of(q, struct ipq, q);
+       if (qp->peer)
+               inet_putpeer(qp->peer);
        kfree(qp);
 }
 
 
 /* Destruction primitives. */
 
-/* Complete destruction of ipq. */
-static void ip_frag_destroy(struct ipq *qp, int *work)
-{
-       struct sk_buff *fp;
-
-       BUG_TRAP(qp->q.last_in&COMPLETE);
-       BUG_TRAP(del_timer(&qp->q.timer) == 0);
-
-       if (qp->peer)
-               inet_putpeer(qp->peer);
-
-       /* Release all fragment data. */
-       fp = qp->q.fragments;
-       while (fp) {
-               struct sk_buff *xp = fp->next;
-
-               frag_kfree_skb(fp, work);
-               fp = xp;
-       }
-
-       /* Finally, release the queue descriptor itself. */
-       frag_free_queue(qp, work);
-}
-
 static __inline__ void ipq_put(struct ipq *ipq, int *work)
 {
        if (atomic_dec_and_test(&ipq->q.refcnt))
-               ip_frag_destroy(ipq, work);
+               inet_frag_destroy(&ipq->q, &ip4_frags, work);
 }
 
 /* Kill ipq entry. It is not destroyed immediately,
 {
        ip4_frags.ctl = &ip4_frags_ctl;
        ip4_frags.hashfn = ip4_hashfn;
+       ip4_frags.destructor = ip4_frag_free;
+       ip4_frags.skb_free = NULL;
+       ip4_frags.qsize = sizeof(struct ipq);
        inet_frags_init(&ip4_frags);
 }
 
 
        return ip6qhashfn(nq->id, &nq->saddr, &nq->daddr);
 }
 
+static void nf_skb_free(struct sk_buff *skb)
+{
+       if (NFCT_FRAG6_CB(skb)->orig)
+               kfree_skb(NFCT_FRAG6_CB(skb)->orig);
+}
+
 /* Memory Tracking Functions. */
 static inline void frag_kfree_skb(struct sk_buff *skb, unsigned int *work)
 {
        if (work)
                *work -= skb->truesize;
        atomic_sub(skb->truesize, &nf_frags.mem);
-       if (NFCT_FRAG6_CB(skb)->orig)
-               kfree_skb(NFCT_FRAG6_CB(skb)->orig);
-
+       nf_skb_free(skb);
        kfree_skb(skb);
 }
 
-static inline void frag_free_queue(struct nf_ct_frag6_queue *fq,
-                                  unsigned int *work)
+static void nf_frag_free(struct inet_frag_queue *q)
 {
-       if (work)
-               *work -= sizeof(struct nf_ct_frag6_queue);
-       atomic_sub(sizeof(struct nf_ct_frag6_queue), &nf_frags.mem);
-       kfree(fq);
+       kfree(container_of(q, struct nf_ct_frag6_queue, q));
 }
 
 static inline struct nf_ct_frag6_queue *frag_alloc_queue(void)
 
 /* Destruction primitives. */
 
-/* Complete destruction of fq. */
-static void nf_ct_frag6_destroy(struct nf_ct_frag6_queue *fq,
-                               unsigned int *work)
-{
-       struct sk_buff *fp;
-
-       BUG_TRAP(fq->q.last_in&COMPLETE);
-       BUG_TRAP(del_timer(&fq->q.timer) == 0);
-
-       /* Release all fragment data. */
-       fp = fq->q.fragments;
-       while (fp) {
-               struct sk_buff *xp = fp->next;
-
-               frag_kfree_skb(fp, work);
-               fp = xp;
-       }
-
-       frag_free_queue(fq, work);
-}
-
 static __inline__ void fq_put(struct nf_ct_frag6_queue *fq, unsigned int *work)
 {
        if (atomic_dec_and_test(&fq->q.refcnt))
-               nf_ct_frag6_destroy(fq, work);
+               inet_frag_destroy(&fq->q, &nf_frags, work);
 }
 
 /* Kill fq entry. It is not destroyed immediately,
 {
        nf_frags.ctl = &nf_frags_ctl;
        nf_frags.hashfn = nf_hashfn;
+       nf_frags.destructor = nf_frag_free;
+       nf_frags.skb_free = nf_skb_free;
+       nf_frags.qsize = sizeof(struct nf_ct_frag6_queue);
        inet_frags_init(&nf_frags);
 
        return 0;
 
        kfree_skb(skb);
 }
 
-static inline void frag_free_queue(struct frag_queue *fq, int *work)
+static void ip6_frag_free(struct inet_frag_queue *fq)
 {
-       if (work)
-               *work -= sizeof(struct frag_queue);
-       atomic_sub(sizeof(struct frag_queue), &ip6_frags.mem);
-       kfree(fq);
+       kfree(container_of(fq, struct frag_queue, q));
 }
 
 static inline struct frag_queue *frag_alloc_queue(void)
 
 /* Destruction primitives. */
 
-/* Complete destruction of fq. */
-static void ip6_frag_destroy(struct frag_queue *fq, int *work)
-{
-       struct sk_buff *fp;
-
-       BUG_TRAP(fq->q.last_in&COMPLETE);
-       BUG_TRAP(del_timer(&fq->q.timer) == 0);
-
-       /* Release all fragment data. */
-       fp = fq->q.fragments;
-       while (fp) {
-               struct sk_buff *xp = fp->next;
-
-               frag_kfree_skb(fp, work);
-               fp = xp;
-       }
-
-       frag_free_queue(fq, work);
-}
-
 static __inline__ void fq_put(struct frag_queue *fq, int *work)
 {
        if (atomic_dec_and_test(&fq->q.refcnt))
-               ip6_frag_destroy(fq, work);
+               inet_frag_destroy(&fq->q, &ip6_frags, work);
 }
 
 /* Kill fq entry. It is not destroyed immediately,
 
        ip6_frags.ctl = &ip6_frags_ctl;
        ip6_frags.hashfn = ip6_hashfn;
+       ip6_frags.destructor = ip6_frag_free;
+       ip6_frags.skb_free = NULL;
+       ip6_frags.qsize = sizeof(struct frag_queue);
        inet_frags_init(&ip6_frags);
 }