Temukan file dengan nama yang sama tetapi konten berbeda?


9

Saya ingin membuat daftar file yang memiliki:

  • Nama yang sama
  • Konten berbeda

dalam direktori (termasuk semua direktori dan konten anak-anak).

Bagaimana melakukan? Bash, perl, semuanya baik-baik saja.

Jadi, dua file dengan nama dan konten yang sama tidak boleh muncul.


Misalkan ada tiga file dengan nama yang sama dan dua dari tiga itu identik?
Kyle Jones

@KyleJones: "tiga file dengan nama yang sama dan dua dari tiga identik"> Maka nama file ini harus ditambahkan ke daftar
Nicolas Raoul

Jawaban:


8

Perbarui: memperbaiki kesalahan ketik pada skrip: diubah print $NFmenjadi print $3; juga merapikan segalanya, dan menambahkan beberapa komentar.

Dengan asumsi nama file tidak mengandung \n, yang berikut ini mencetak daftar yang diurutkan yang rusak (seperti dalam: bagian kontrol rusak ) di unik file name, unik md5sum, dan menunjukkan grup jalur file yang sesuai.

#!/bin/bash

# Choose which script to use for the final awk step 
out_script=out_all

# Print all duplicated file names, even when md5sum is the same 
out_all='{ if( p1 != $1 ) { print nl $1; print I $2 }
      else if( p2 != $2 ) { print I $2 }
      print I I $3; p1=$1; p2=$2; nl="\n" }
   END { printf nl}'

# Print only duplicated file names which have multiple md5sums.
out_only='{ if( p1 != $1 ) { if( multi ) { print pend }
                             multi=0; pend=$1 "\n" I $2 "\n" }
       else if( p2 != $2 ) { multi++; pend=pend I $2 "\n" } 
       pend=pend I I $3 "\n"; p1=$1; p2=$2 } 
   END { if( multi ) print pend }'

# The main pipeline 
find "${1:-.}" -type f -name '*' |  # awk for duplicate names
awk -F/ '{ if( name[$NF] ) { dname[$NF]++ }
           name[$NF]=name[$NF] $0 "\n" } 
     END { for( d in dname ) { printf name[d] } 
   }' |                             # standard md5sum output 
xargs -d'\n' md5sum |               # " "==text, "*"==binary
sed 's/ [ *]/\x00/' |               # prefix with file name  
awk -F/ '{ print $3 "\x00" $0 }' |  # sort by name. md5sum, path 
sort |                              # awk to print result
awk -F"\x00" -v"I=   " "${!out_script}"

Output hanya menampilkan nama file dengan banyak md5 s

afile.html
   53232474d80cf50b606069a821374a0a
      ./test/afile.html
      ./test/dir.svn/afile.html
   6b1b4b5b7aa12cdbcc72a16215990417
      ./test/dir.svn/dir.show/afile.html

Output menampilkan semua file dengan nama yang sama.

afile.html
   53232474d80cf50b606069a821374a0a
      ./test/afile.html
      ./test/dir.svn/afile.html
   6b1b4b5b7aa12cdbcc72a16215990417
      ./test/dir.svn/dir.show/afile.html

fi    le.html
   53232474d80cf50b606069a821374a0a
      ./test/dir.svn/dir.show/fi    le.html
      ./test/dir.svn/dir.svn/fi    le.html

file.html
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.html
      ./test/dir.show/dir.svn/file.html

file.svn
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.svn
      ./test/dir.show/dir.svn/file.svn
      ./test/dir.svn/dir.show/file.svn
      ./test/dir.svn/dir.svn/file.svn

file.txt
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.txt
      ./test/dir.show/dir.svn/file.txt
      ./test/dir.svn/dir.show/file.txt
      ./test/dir.svn/dir.svn/file.txt

1

Ini skrip Perl. Jalankan di direktori di bagian atas pohon yang ingin Anda cari. Script tergantung pada finddan md5, tetapi yang terakhir dapat diganti dengan sha1, sumatau program hashing file lain yang menerima input pada stdin dan menghasilkan hash pada stdout.

use strict;

my %files;
my %nfiles;
my $HASHER = 'md5';

sub
print_array
{
    for my $x (@_) {
        print "$x\n";
    }
}

open FINDOUTPUT, "find . -type f -print|" or die "find";

while (defined (my $line = <FINDOUTPUT>)) {
    chomp $line;
    my @segments = split /\//, $line;
    my $shortname = pop @segments;
    push @{ $files{$shortname} }, $line;
    $nfiles{$shortname}++;
}

for my $shortname (keys %files) {
    if ($nfiles{$shortname} < 2) {
        print_array @{ $files{$shortname} };
        next;
    }
    my %nhashes;
    my %revhashes;
    for my $file (@{ $files{$shortname} }) {
        my $hash = `$HASHER < $file`;
        $revhashes{$hash} = $file;
        $nhashes{$hash}++;
    }
    for my $hash (keys %nhashes) {
        if ($nhashes{$hash} < 2) {
            my $file = $revhashes{$hash};
            print "$file\n";
        }
    }
}


1

Bagi mereka yang ingin melihat hanya daftar nama file, di sini adalah bagian yang relevan dari Peter.O 's jawabannya :

find "${1:-.}" -type f -name '*' | 
awk -F/ '{ if( name[$NF] ) { dname[$NF]++ }
       name[$NF]=name[$NF] $0 "\n" } 
 END { for( d in dname ) { printf name[d] "\n" } 

} '

Saya tidak perlu md5sums karena saya gunakan fslint-guisebelum skrip untuk menghapus semua duplikat.


pada mac saya ini menunjukkan file duplikat yang sama dengan nama konten yang sama
nightograph
Dengan menggunakan situs kami, Anda mengakui telah membaca dan memahami Kebijakan Cookie dan Kebijakan Privasi kami.
Licensed under cc by-sa 3.0 with attribution required.