goto bail_unlock;
        }
 
-       /* If we have allowd wipe of this inode for another node, it
-        * will be marked here so we can safely skip it. Recovery will
-        * cleanup any inodes we might inadvertently skip here. */
-       if (oi->ip_flags & OCFS2_INODE_SKIP_DELETE)
-               goto bail_unlock;
-
        ret = 1;
 bail_unlock:
        spin_unlock(&oi->ip_lock);
 
 #define OCFS2_INODE_BITMAP             0x00000004
 /* This inode has been wiped from disk */
 #define OCFS2_INODE_DELETED            0x00000008
-/* Another node is deleting, so our delete is a nop */
-#define OCFS2_INODE_SKIP_DELETE                0x00000010
 /* Has the inode been orphaned on another node?
  *
  * This hints to ocfs2_drop_inode that it should clear i_nlink before
  * rely on ocfs2_delete_inode to sort things out under the proper
  * cluster locks.
  */
-#define OCFS2_INODE_MAYBE_ORPHANED     0x00000020
+#define OCFS2_INODE_MAYBE_ORPHANED     0x00000010
 /* Does someone have the file open O_DIRECT */
-#define OCFS2_INODE_OPEN_DIRECT                0x00000040
+#define OCFS2_INODE_OPEN_DIRECT                0x00000020
 /* Tell the inode wipe code it's not in orphan dir */
-#define OCFS2_INODE_SKIP_ORPHAN_DIR     0x00000080
+#define OCFS2_INODE_SKIP_ORPHAN_DIR     0x00000040
 
 static inline struct ocfs2_inode_info *OCFS2_I(struct inode *inode)
 {
 
                iter = oi->ip_next_orphan;
 
                spin_lock(&oi->ip_lock);
-               /* The remote delete code may have set these on the
-                * assumption that the other node would wipe them
-                * successfully.  If they are still in the node's
-                * orphan dir, we need to reset that state. */
-               oi->ip_flags &= ~(OCFS2_INODE_DELETED|OCFS2_INODE_SKIP_DELETE);
-
                /* Set the proper information to get us going into
                 * ocfs2_delete_inode. */
                oi->ip_flags |= OCFS2_INODE_MAYBE_ORPHANED;