Assuming file names can be different and that hashes aren&#39;t in a db somewhere already.<div><br></div><div>md5sum `find / -type f` | sort &gt; md5sums</div><div>uniq -c md5sums | egrep -v &quot; *1 &quot; &gt; dupes</div>
<div>grep -f dupes md5sums</div><div><br></div><div>Not sure if a sha sum would be faster, but md5sum is embedded in muscle memory for me. There&#39;s probably a one liner out of this.</div><div><br></div><div>Also might want to scope that find to stay out of /proc, or to stick into /home. Exercise for the interested reader ;)</div>
<div><br></div><div>Sean</div><div><br><div class="gmail_quote">On Fri, Mar 25, 2011 at 3:01 PM, Kevin McGregor <span dir="ltr">&lt;<a href="mailto:kevin.a.mcgregor@gmail.com">kevin.a.mcgregor@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Would anyone like to volunteer suggestions for a utility that searches a filesystem for duplicate files? I&#39;m running Ubuntu 10.04 on my server, and I&#39;m sure I have lots of duplication, which I&#39;d like to get rid of. I&#39;m interested in both CLI and GUI solutions.<div>

<br></div><font color="#888888"><div>Kevin</div>
</font><br>_______________________________________________<br>
Roundtable mailing list<br>
<a href="mailto:Roundtable@muug.mb.ca">Roundtable@muug.mb.ca</a><br>
<a href="http://www.muug.mb.ca/mailman/listinfo/roundtable" target="_blank">http://www.muug.mb.ca/mailman/listinfo/roundtable</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>Sean Walberg &lt;<a href="mailto:sean@ertw.com" target="_blank">sean@ertw.com</a>&gt;    <a href="http://ertw.com/" target="_blank">http://ertw.com/</a><br>
</div>