यदि आप कुछ वास्तविक गति चाहते हैं:
echo 'int cache[256],x,y;char buf[4096],letters[]="tacgn-"; int main(){while((x=read(0,buf,sizeof buf))>0)for(y=0;y<x;y++)cache[(unsigned char)buf[y]]++;for(x=0;x<sizeof letters-1;x++)printf("%c: %d\n",letters[x],cache[letters[x]]);}' | gcc -w -xc -; ./a.out < file; rm a.out;
एक अविश्वसनीय रूप से तेज़ छद्म-वन-लाइनर है।
एक साधारण परीक्षण से पता चलता है कि मेरे कोर i7 सीपीयू 870 @ 2.93GHz पर इसकी गिनती सिर्फ 600MB / s से अधिक है:
$ du -h bigdna
1.1G bigdna
time ./a.out < bigdna
t: 178977308
a: 178958411
c: 178958823
g: 178947772
n: 178959673
-: 178939837
real 0m1.718s
user 0m1.539s
sys 0m0.171s
सॉर्टिंग से जुड़े समाधानों के विपरीत, यह एक निरंतर (4K) मेमोरी में चलता है, जो बहुत उपयोगी है, अगर आपकी फ़ाइल आपके रैम से बहुत बड़ी है।
और, निश्चित रूप से थोड़ा सा कोहनी तेल से, हम 0.7 सेकंड से दाढ़ी बना सकते हैं:
echo 'int cache[256],x,buf[4096],*bp,*ep;char letters[]="tacgn-"; int main(){while((ep=buf+(read(0,buf,sizeof buf)/sizeof(int)))>buf)for(bp=buf;bp<ep;bp++){cache[(*bp)&0xff]++;cache[(*bp>>8)&0xff]++;cache[(*bp>>16)&0xff]++;cache[(*bp>>24)&0xff]++;}for(x=0;x<sizeof letters-1;x++)printf("%c: %d\n",letters[x],cache[letters[x]]);}' | gcc -O2 -xc -; ./a.out < file; rm a.out;
केवल 1.1GB / s पर खत्म होने वाले जाल:
real 0m0.943s
user 0m0.798s
sys 0m0.134s
तुलना के लिए, मैंने इस पृष्ठ पर कुछ अन्य समाधानों का परीक्षण किया, जो कि किसी प्रकार की गति का वादा करते थे।
sed
/ awk
समाधान एक बहादुर प्रयास किया, लेकिन 30 सेकंड के बाद निधन हो गया। इस तरह के एक सरल रेगेक्स के साथ, मुझे उम्मीद है कि यह सीड (जीएनयू सेड संस्करण 4.2.1) में एक बग होगा।
$ time sed 's/./&\n/g' bigdna | awk '!/^$/{a[$0]++}END{for (i in a)print i,a[i];}'
sed: couldn't re-allocate memory
real 0m31.326s
user 0m21.696s
sys 0m2.111s
पर्ल विधि भी आशाजनक लग रही थी, लेकिन मैंने इसे 7 मिनट तक चलाने के बाद छोड़ दिया
time perl -e 'while (<>) {$c{$&}++ while /./g} print "$c{$_} $_\n" for keys %c' < bigdna
^C
real 7m44.161s
user 4m53.941s
sys 2m35.593s