असीमित संख्या में कॉलम स्वैप करना


12

मेरे पास कॉलम के साथ एक फाइल है। एक उदाहरण के लिए नीचे देखें:

a b c ... z  
1 2 3 ... 26

मैं उन सभी स्तंभों की अदला-बदली करना चाहता हूँ जहाँ 1 अंतिम बन जाता है, दूसरा अंतिम से पहले एक हो जाता है ... आदि।

z y x ... a  
26 25 24 ... 1

वहाँ एक लाइनर ( awkया sed) है कि यह करता है?
मुझे पता है कि एक का उपयोग कर सकते हैं awkजब वहाँ केवल एक जोड़े स्तंभ है, लेकिन मैं हजारों स्तंभों के साथ फ़ाइलों पर ऐसा करने में सक्षम होना चाहता हूँ।

tacलाइनों के लिए यह पूरी तरह से करता है।
मुझे लगता है कि मैं स्तंभों के लिए बराबर देख रहा हूं।

rev मेरे लिए काम नहीं किया, क्योंकि यह कॉलम में सामग्री को स्वैप भी करता है।


perl -lane 'print join " ", reverse @F'

जवाबों:


15
awk '{for(i=NF;i>0;i--)printf "%s ",$i;print ""}' file

मैंने इतने आसान काम के लिए बहुत मेहनत की। हमेशा सरल यह बेहतर है। +1
बिरई

10

आप इसे एक छोटे अजगर लिपि के साथ कर सकते हैं:

#!/usr/bin/env python

# Swaps order of columns in file, writes result to a file.
# usage: program.py input_file output_file

import sys, os

out = []

for line in open(sys.argv[1], 'r'):
    fields = line.split()
    rev = ' '.join(list(reversed(fields)))
    out.append(rev)

f = open(sys.argv[2], 'w')
f.write(os.linesep.join(out))

7

यदि आप अजगर को बुरा नहीं मानते हैं, तो यह एक-लाइनर हर पंक्ति में अंतरिक्ष के अलग-अलग स्तंभों के क्रम को उलट देगा:

paddy$ cat infile.txt 
a b c d e f g h i j k l
1 2 3 4 5 6 7 8 9 10 11 12
a e i o u
paddy$ python3 -c 'with open("infile.txt") as f: print("\n".join(" ".join(line.rstrip().split()[::-1]) for line in f))'
l k j i h g f e d c b a
12 11 10 9 8 7 6 5 4 3 2 1
u o i e a
paddy$ 

ऊपर भी python2.7 के साथ काम करता है:

paddy$ python2.7 -c 'with open("infile.txt") as f: print("\n".join(" ".join(line.rstrip().split()[::-1]) for line in f))'
l k j i h g f e d c b a
12 11 10 9 8 7 6 5 4 3 2 1
u o i e a
paddy$ 

यह विधि मेरे द्वारा परीक्षण किए गए सभी ऐरों का सबसे तेज़ है।
पीटर।

4

उपयोग करने का एक तरीका awk

की सामग्री infile:

a b c d e f g h i j k l
1 2 3 4 5 6 7 8 9 10 11 12
a e i o u

निम्न awkआदेश चलाएँ:

awk '{
    ## Variable 'i' will be incremented from first field, variable 'j'
    ## will be decremented from last field. And their values will be exchanged.
    ## The loop will end when both values cross themselves.
    j = NF; 
    for ( i = 1; i <= NF; i++ ) { 
        if ( j - i < 1 ) { 
            break;
        } 
        temp = $j; 
        $j = $i; 
        $i = temp; 
        j--; 
    }
    print;
}' infile

निम्नलिखित परिणाम के साथ:

l k j i h g f e d c b a
12 11 10 9 8 7 6 5 4 3 2 1
u o i e a

3

यह धीमा है, लेकिन इसमें एक रिडीम करने की सुविधा है। यह क्षेत्र विभाजकों की चौड़ाई को बनाए रखता है, जब वे एकल चरित्र की तुलना में व्यापक होते हैं। एफडब्ल्यूआईडब्ल्यू: यदि आप इस स्क्रिप्ट को दो बार चलाते हैं, तो परिणाम मूल के समान है।

यहाँ स्क्रिप्ट है।

awk '{ eix = length($0) 
       for( fn=NF; fn>0; fn--) { dix=eix
            while( substr($0,dix,1) ~ /[ \t]/ ) dix--
            printf "%s%s", substr($0,dix+1,eix-dix), $fn
            dix-=length($fn); eix=dix }
       print substr($0,1,dix)
    }' "$file"

यहाँ कुछ समय की तुलना कर रहे हैं। परीक्षण फ़ाइल में 1 पंक्ति थी।

                      fields           fields     
                      10,0000          10,000,000

user11136 {python} | real  0.029s     real  3.235s
reversible? no     | user  0.032s     user  2.008s
                   | sys   0.000s     sys   1.228s

jmp {python}       | real  0.078s     real  5.045s
reversible? no     | user  0.068s     user  4.268s
                   | sys   0.012s     sys   0.560s

rush {awk}         | real  0.120s     real  10.889s
reversible? no     | user  0.116s     user   8.641s
                   | sys   0.008s     sys    2.252s

petero {awk}       | real  0.319s     real  35.750s
reversible? yes    | user  0.304s     user  33.090s
                   | sys   0.016s     sys    2.660s

3

आप पहले और बाद में इनपुट को स्थानांतरित करने की आवश्यकता का उपयोग कर सकते हैं tac। यह स्प्रेडशीट कैलकुलेटर scऔर इसके साइडकिक के साथ किया जा सकता है psc:

< infile psc -S -r | sc -W% - | tac | psc -S -r | sc -W% - > outfile

जैसा कि यहां देखा गया है

सभी कॉलम भरे जाने पर यह सबसे अच्छा काम करता है।

फाइल में

 a b c d e f g h i  j  k  l
 1 2 3 4 5 6 7 8 9 10 11 12
 A B C D E F G H I  J  K  L

outfile

  l  k  j i h g f e d c b a
 12 11 10 9 8 7 6 5 4 3 2 1
  L  K  J I H G F E D C B A

संपादित करें

जैसा कि पीटरो sc ने नोट किया है कि इसकी सीमा 702 कॉलम है, इसलिए यह इस विधि द्वारा समर्थित अधिकतम आकार है।


1
यह संख्याओं को फ्लोटिंग पॉइंट्स (मेरे लिए) जैसे में कनवर्ट करता है। 1-> 1.00। साथ ही, मुझे 702 से अधिक क्षेत्रों की लाइनों के लिए त्रुटियां मिलती हैं। यह 32768 की एक संख्यात्मक सीमा से संबंधित लगता है ... लेकिन यह काफी तेज है, asis।
पीटर।

मैं चल बिन्दु रूपांतरण नहीं दिख रहा है, लेकिन जोड़ने -Sके लिए pscआदेश स्ट्रिंग के रूप में सब कुछ से समझना चाहिए। 702 कॉलम सीमा के संबंध में, यह एक कठिन सीमा है क्योंकि केवल A से ZZ कॉलम समर्थित हैं (26 + 26 * 26), मैं उसके बारे में एक टिप्पणी जोड़ूंगा।
थोर

1
वास्तव में, फ्लोटिंग पॉइंट इश्यू ठीक है। मैंने इसे और आगे बढ़ाया, और मुझे पता चला कि मुझे परिणामों की जांच नहीं करनी चाहिए क्योंकि मैं दरवाजा जल्दी कर रहा हूँ .. फ़्लोटिंग पॉइंट केवल तब होता है जब यह 702 की सीमा को हिट करता है ... यह 702 क्षेत्रों में से 1 पंक्ति के लिए अजगर के उत्तर से तेज है , लेकिन 100 लाइनों के लिए यह सभी दिए गए तरीकों में सबसे धीमा हो जाता है :( .. यह अजगर की तुलना में एक छोटा स्टार्ट-अप समय होना चाहिए।
पीटर

3

यह पाइपलाइन एक महत्वपूर्ण कारक (परिणाम देखें) द्वारा सबसे तेज अन्य उत्तर से तेज है। यह उपयोग करता है trऔर tac। इसे 2 ASCII बाइट्स (\ x00- \ x7F) का उपयोग करने की आवश्यकता है जो आपके डेटा में मौजूद नहीं हैं।

\x00आम तौर पर एक अच्छा विकल्प है, जैसा कि है \x01, लेकिन आप किसी भी ASCII बाइट का उपयोग कर सकते हैं जो डेटा में नहीं है।

इस उदाहरण में, SPACE और TAB सीमांकक वर्ण के रूप में। डेलीमीटर मल्टी-बाइट या सिंगल हो सकता है। आउटपुट सीमांकक एक एकल स्थान है।

यहाँ आज्ञा है। फ़ाइल नाम numberof fields_x दिखाता हैnumber of lines

 <"$file" tr ' \t\n' '\0\0\1' |tr -s '\0' '\n' |tac |tr '\n' ' ' |tr '\1' '\n'

यदि आप अप्रयुक्त बाइट्स की जांच करना चाहते हैं, तो आप इस वैकल्पिक awkस्क्रिप्ट के साथ पहले से जांच कर सकते हैं । कुल मिलाकर, इस वैकल्पिक स्क्रिप्ट को चलाने के दौरान, अन्य मेट्रों की तुलना में अभी भी काफी तेज है (अब तक :) .. यहाँ प्री-प्रोसेसिंग स्क्रिप्ट है।

o=($(<"$file" char-ascii-not-in-stream)); x="${o[0]}"; y="${o[1]}"
<"$file" tr ' \t\n' "$x$x$y" |tr -s "$x" '\n' |tac |tr '\n' ' ' | tr '$y' '\n' >"$file".$user

यह जागृत लिपि है: char-ascii-not-in-stream

#!/usr/bin/awk -f
{c[$0]} END{for(i=0;i<=127;i++) {if(sprintf("%c", i) in c);else {printf "\\%03o ",i}}}

इस स्क्रिप्ट के लिए समय का दूसरा सेट, समय शामिल है char-ascii-not-in-stream

Peter.O {tr,tac,tr} ==== file_10_x10000
real    0m0.013s    0m0.015s
user    0m0.020s    0m0.020s
sys     0m0.008s    0m0.012s   

user11136 {python} ===== file_10_x10000
real    0m0.057s
user    0m0.048s
sys     0m0.008s

jmp {python} =========== file_10_x10000
real    0m0.160s
user    0m0.160s
sys     0m0.000s

rush {awk} ============= file_10_x10000
real    0m0.121s
user    0m0.120s
sys     0m0.000s

##############################################

Peter.O {tr,tac,tr} ==== file_1000_x1000
real    0m0.048s    0m0.059s
user    0m0.040s    0m0.040s
sys     0m0.040s    0m0.048s

user11136 {python} ===== file_1000_x1000
real    0m0.158s
user    0m0.136s
sys     0m0.028s

jmp {python} =========== file_1000_x1000
real    0m0.327s
user    0m0.320s
sys     0m0.008s

rush {awk} ============= file_1000_x1000
real    0m0.832s
user    0m0.820s
sys     0m0s012s

##############################################

Peter.O {tr,tac,tr} ==== file_1000000_x50
real    0m5.221s    0m6.458s
user    0m4.208s    0m5.248s
sys     0m2.624s    0m2.396s

user11136 {python} ===== file_1000000_x50
real    0m16.286s
user    0m10.041s
sys     0m5.148s

jmp {python} =========== file_1000000_x50
real    0m22.845s
user    0m20.705s
sys     0m1.140s

rush {awk} ============= file_1000000_x50
real    0m44.793s
user    0m43.583s
sys     0m0.848s

##############################################

0

आप इसे प्रिंट एफ के बिना भी कर सकते हैं :

awk 'BEGIN{ORS=""} {for(k=NF;k>0;--k) {print $k; if (k==1) print "\n"; else print " "}} ' file
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.