私は、これらのいくつか(+いくつかの選択肢)が、かなり大きなファイル(163MiB、IP行ごとに1つ、約1,300万行)でどのように速度的に機能するかを知りたいと思いました。
wc -l < iplist
13144256
結果(sync; echo 3 > /proc/sys/vm/drop_caches各コマンドの後、数時間後にテストを逆の順序で繰り返しましたが、違いは無視できました。また、使用していることに注意してくださいgnu sed):
steeldriver:
非常に遅い。待機中の2分後に中止されていない...ので、この1には結果。
クオンルム:
awk 'FNR!=1{print l}{l=$0};END{ORS="";print l}' ORS=' | ' iplist
real 0m3.672s
perl -pe 's/\n/ | / unless eof' iplist
real 0m12.444s
mikeserv:
paste -d\ /dev/null iplist /dev/null | paste -sd\| -
real 0m0.983s
jthill:
sed 'H;1h;$!d;x;s/\n/ | /g' iplist
real 0m4.903s
アビナッシュ・ラジ:
time python2.7 -c'
import sys
with open(sys.argv[1]) as f:
print " | ".join(line.strip() for line in f)' iplist
real 0m3.434s
そして
val0x00ff:
while read -r ip; do printf '%s | ' "$ip"; done < iplist
real 3m4.321s
つまり 184.321sます。当然のことながら、これは200倍よりも遅いですmikeservのソリューション。
awkを使用する他の方法は次のとおりです。
awk '$1=$1' RS= OFS=' | ' iplist
real 0m4.543s
awk '{printf "%s%s",sep,$0,sep=" | "} END {print ""}' iplist
real 0m5.511s
perl:
perl -ple '$\=eof()?"\n":" | "' iplist
real 0m9.646s
xargs:
xargs <iplist printf ' | %s' | cut -c4-
real 0m6.326s
head + paste + tr + catの組み合わせ:
{ head -n -1 | paste -d' |' - /dev/null /dev/null | tr \\n \ ; cat ; } <iplist
real 0m0.991s
あなたが持っている場合GNU coreutilsやIPアドレスのリストが本当に巨大でない場合(のは50000個のIPアドレスまで言わせて)あなたもでこれを行うことができますpr:
pr -$(wc -l infile) -tJS' | ' -W1000000 infile >outfile
どこ
-$(wc -l infile) # no. of columns (= with no. of lines in your file)
-t # omit page headers and trailers
-J # merge lines
-S' | ' # separate columns by STRING
-W1000000 # set page width
たとえば、6行のファイルの場合:
134.28.128.0
111.245.28.0
109.245.24.0
128.27.88.0
122.245.48.0
103.44.204.0
コマンド:
pr -$(wc -l <infile) -tJS' | ' -W1000 infile
出力:
134.28.128.0 | 111.245.28.0 | 109.245.24.0 | 128.27.88.0 | 122.245.48.0 | 103.44.204.0
tr改行を|パイプにまとめるだけですか?好き<ipfile tr \\n \| >outfile?