1. ホーム
  2. スクリプト・コラム
  3. パール
  4. アプリケーションのヒント

重複するコンテンツ(重複する行+重複するフィールドの配列)を削除するための perl スクリプトコード

2022-02-02 14:02:39

このような配列があったとします。
1 2 
1 2 
2 1 
1 3 
1 4 
1 5 
4 1
次のような結果を得る必要があります。
1 3 
1 5 
2 1 
4 1
そして、以下のperlスクリプトの助けを借りて実行します。
コードI.

コピーコード コードは以下の通りです。

#! /bin/perl
use strict; 
use warnings; 
my $filename; 
my %hash; 
my @information; 
my $key1; 
my $key2; 
print "please put in the file like this f:\\\\perl\\\\data.txt\n"; 
chomp($filename=<STDIN>); 
open(IN,"$filename")||die("can not open"); 
while(<IN>) 

   chomp; 
   @information=split/\s+/,$_; 
   if(exists $hash{$information[0]}{$information[1]}) 
   { 
       next; 
  
   else 
   { 
       $hash{$information[0]}{$information[1]}='A'; 
    } 
   } 
   close IN; 
   open(IN,"$filename")||die("can not open"); 
   while(<IN>) 
   { 
       @information=split/\s+/,$_; 
       if(exists $hash{$information[1]}{$information[0]}) 
       { 
           delete $hash{$information[0]}{$information[1]} 
       } 
       else 
       { 
           next; 
      
   } 
   close IN; 
   open(OUT,">f:\A_B_result.txt")||die("can not open"); 
   foreach $key1 (sort{$a<=>$b} keys %hash) 
   { 
       foreach $key2 (sort{$a<=>$b} keys %{$hash{$key1}}) 
       { 
           print OUT "$key1 $key2\n"; 
       } 
   } 
Close OUT;

コード2です。

10Gのファイルデータがあるが、重複行が多く、そのファイルの重複行を1行にマージする必要がある場合、何を使って実現するか?
cat data |sort|uniq > new_data #この方法は実装可能ですが、何時間もかかります。結果が出るのはこれからです。
これをperlスクリプトで行う小さなツールを紹介します。原理は簡単で、各行の内容をキーとするハッシュを作成し、各行の出現回数で値を埋めていきます。
コピーコード コードは以下の通りです。

#! /usr/bin/perl
# Author :CaoJiangfeng
# Date:2011-09-28
# Version :1.0
Use warnings;
use strict;

my %hash;
my $script = $0; # Get the script name

sub usage
{
        printf("Usage:\n");
        printf("perl $script <source_file> <dest_file>\n");

}

# If the number of parameters is less than 2 ,exit the script
if ( $#ARGV+1 < 2) {

        &usage;
        exit 0;
}


my $source_file = $ARGV[0]; #File need to remove duplicate rows
my $dest_file = $ARGV[1]; # File after remove duplicates rows

open (FILE,"<$source_file") or die "Cannot open file $! \n";
open (SORTED,">$dest_file") or die "Cannot open file $! \n";

while(defined (my $line = <FILE>))
{
        chomp($line);
        $hash{$line} += 1;
        # print "$line,$hash{$line}\n";
}

foreach my $k (keys %hash) {
        print SORTED "$k,$hash{$k}\n";#Relay print out the column and the number of occurrences of the column to the target file
}
close (FILE);
close (SORTED);

コード3

perlスクリプトでデータグループから重複するフィールドを削除する。

コピーコード コードは以下の通りです。

#! /usr/bin/perl
use strict;
my %hash;
my @array = (1..10,5,20,2,3,4,5,5);
#grep Save the elements that match
@array = grep { ++$hash{$_} < 2 } @array;
print join(" ",@array);
print "\n";