みんな、私はここにSH(1)からSH(200)までの名前の200の別々のcsvファイルを持っています。それらを1つのcsvファイルにマージしたいと思います。どうすればいいですか?
みんな、私はここにSH(1)からSH(200)までの名前の200の別々のcsvファイルを持っています。それらを1つのcsvファイルにマージしたいと思います。どうすればいいですか?
回答:
ghostdog74が言ったように、しかし今回はヘッダー付き:
fout=open("out.csv","a")
# first file:
for line in open("sh1.csv"):
fout.write(line)
# now the rest:
for num in range(2,201):
f = open("sh"+str(num)+".csv")
f.next() # skip the header
for line in f:
fout.write(line)
f.close() # not really needed
fout.close()
f.__next__()
場合f.next()
は、代わりに使用できます。
with open
構文を使用して.close()
、ファイルを手動で作成する必要はありません。
f.next()
とはf.__next__()
?前者を使用すると、次のようになりました'_io.TextIOWrapper' object has no attribute 'next'
fout.write(line)
私がする前に:if line[-1] != '\n': line += '\n'
なぜあなたはただできないのですsed 1d sh*.csv > merged.csv
か?
Pythonを使用する必要がない場合もあります。
使用すると、StackOverflowの答えを受け入れて、あなたが追加してから、このコードを実行することをCSVファイルのリストを作成します:
import pandas as pd
combined_csv = pd.concat( [ pd.read_csv(f) for f in filenames ] )
また、それを単一のcsvファイルにエクスポートする場合は、次を使用します。
combined_csv.to_csv( "combined_csv.csv", index=False )
fout=open("out.csv","a")
for num in range(1,201):
for line in open("sh"+str(num)+".csv"):
fout.write(line)
fout.close()
バスケット内の別のコード例を見ていきます
from glob import glob
with open('singleDataFile.csv', 'a') as singleFile:
for csvFile in glob('*.csv'):
for line in open(csvFile, 'r'):
singleFile.write(line)
「マージ」の意味によって異なりますが、同じ列がありますか?ヘッダーはありますか?たとえば、すべてに同じ列があり、ヘッダーがない場合は、単純な連結で十分です(書き込み用に宛先ファイルを開き、読み取り用にそれぞれを開いているソースをループし、読み取り用に開いているソースからshutil.copyfileobjを使用して書き込み先を開き、ソースを閉じ、ループを続けます-with
ステートメントを使用して、代わりに閉じます)。同じ列があり、ヘッダーもある場合はreadline
、最初のファイルを除く各ソースファイルで、読み取り用に開いた後、コピー先にコピーする前に、ヘッダー行をスキップする必要があります。
CSVファイルの列がすべて同じでない場合は、それらを「マージ」する意味を定義する必要があります(SQL JOINのように、またはすべて同じ行数の場合は「水平方向に」など)。 )-その場合、あなたが何を意味するのかを推測するのは難しいです。
マージされたCSVをPythonで使用glob
する場合は、を使用fileinput.input()
してfiles
引数を介して渡すファイルのリストを取得し、csv
モジュールを使用してすべてを一度に読み取ります。
ディレクトリ内のすべてのファイルを結合してマージするのは非常に簡単です
import glob
import csv
# Open result file
with open('output.txt','wb') as fout:
wout = csv.writer(fout,delimiter=',')
interesting_files = glob.glob("*.csv")
h = True
for filename in interesting_files:
print 'Processing',filename
# Open and process file
with open(filename,'rb') as fin:
if h:
h = False
else:
fin.next()#skip header
for line in csv.reader(fin,delimiter=','):
wout.writerow(line)
csvをインポートしてから、すべてのCSVファイルをループしてリストに読み込むことができます。次に、リストをディスクに書き戻します。
import csv
rows = []
for f in (file1, file2, ...):
reader = csv.reader(open("f", "rb"))
for row in reader:
rows.append(row)
writer = csv.writer(open("some.csv", "wb"))
writer.writerows("\n".join(rows))
上記はエラー処理がなく、開いているファイルを閉じないため、それほど堅牢ではありません。これは、個々のファイルに1行以上のCSVデータが含まれているかどうかに関係なく機能するはずです。また、私はこのコードを実行しませんでしたが、それはあなたに何をすべきかについての考えを与えるはずです。
@Addersを作成し、後で@varunによって改善されたソリューションに対して、少し改善を実装しましたが、マージされたCSV全体をメインヘッダーのみのままにしました。
from glob import glob
filename = 'main.csv'
with open(filename, 'a') as singleFile:
first_csv = True
for csv in glob('*.csv'):
if csv == filename:
pass
else:
header = True
for line in open(csv, 'r'):
if first_csv and header:
singleFile.write(line)
first_csv = False
header = False
elif header:
header = False
else:
singleFile.write(line)
singleFile.close()
宜しくお願いします!!!
組み込みのcsv
ライブラリを使用するだけです。このソリューションは、他の上位投票の回答とは異なり、CSVファイルの一部の列名またはヘッダーがわずかに異なる場合でも機能します。
import csv
import glob
filenames = [i for i in glob.glob("SH*.csv")]
header_keys = []
merged_rows = []
for filename in filenames:
with open(filename) as f:
reader = csv.DictReader(f)
merged_rows.extend(list(reader))
header_keys.extend([key for key in reader.fieldnames if key not in header_keys])
with open("combined.csv", "w") as f:
w = csv.DictWriter(f, fieldnames=header_keys)
w.writeheader()
w.writerows(merged_rows)
マージheader_keys
されたファイルには、ファイル内にある可能性のあるすべての列()が含まれます。ファイルに存在しない列は空白/空としてレンダリングされます(ただし、ファイルの残りのデータは保持されます)。
注意:
csv
ライブラリを使用できますが、DictReader
&を使用する代わりにDictWriter
、基本的なreader
&を使用する必要がありますwriter
。merged_rows
リスト)に保存されているため、大量のデータを処理しているときに問題が発生する可能性があります。@wistyがpython3.xで動作すると言われているものを変更しました。エンコーディングの問題がある方のために、ハードコーディングを避けるためにosモジュールも使用しています。
import os
def merge_all():
dir = os.chdir('C:\python\data\\')
fout = open("merged_files.csv", "ab")
# first file:
for line in open("file_1.csv",'rb'):
fout.write(line)
# now the rest:
list = os.listdir(dir)
number_files = len(list)
for num in range(2, number_files):
f = open("file_" + str(num) + ".csv", 'rb')
f.__next__() # skip the header
for line in f:
fout.write(line)
f.close() # not really needed
fout.close()
スクリプトは次のとおりです。
SH1.csv
たcsvファイルの連結SH200.csv
import glob
import re
# Looking for filenames like 'SH1.csv' ... 'SH200.csv'
pattern = re.compile("^SH([1-9]|[1-9][0-9]|1[0-9][0-9]|200).csv$")
file_parts = [name for name in glob.glob('*.csv') if pattern.match(name)]
with open("file_merged.csv","wb") as file_merged:
for (i, name) in enumerate(file_parts):
with open(name, "rb") as file_part:
if i != 0:
next(file_part) # skip headers if not first file
file_merged.write(file_part.read())
Python3のwistyの答えを更新する
fout=open("out.csv","a")
# first file:
for line in open("sh1.csv"):
fout.write(line)
# now the rest:
for num in range(2,201):
f = open("sh"+str(num)+".csv")
next(f) # skip the header
for line in f:
fout.write(line)
f.close() # not really needed
fout.close()
あなたが2を持っているとしましょう csv
次のようなファイル。
csv1.csv:
id,name
1,Armin
2,Sven
csv2.csv:
id,place,year
1,Reykjavik,2017
2,Amsterdam,2018
3,Berlin,2019
結果を次のcsv3.csvのようにします。
id,name,place,year
1,Armin,Reykjavik,2017
2,Sven,Amsterdam,2018
3,,Berlin,2019
次に、次のスニペットを使用してそれを行うことができます。
import csv
import pandas as pd
# the file names
f1 = "csv1.csv"
f2 = "csv2.csv"
out_f = "csv3.csv"
# read the files
df1 = pd.read_csv(f1)
df2 = pd.read_csv(f2)
# get the keys
keys1 = list(df1)
keys2 = list(df2)
# merge both files
for idx, row in df2.iterrows():
data = df1[df1['id'] == row['id']]
# if row with such id does not exist, add the whole row
if data.empty:
next_idx = len(df1)
for key in keys2:
df1.at[next_idx, key] = df2.at[idx, key]
# if row with such id exists, add only the missing keys with their values
else:
i = int(data.index[0])
for key in keys2:
if key not in keys1:
df1.at[i, key] = df2.at[idx, key]
# save the merged files
df1.to_csv(out_f, index=False, encoding='utf-8', quotechar="", quoting=csv.QUOTE_NONE)
ループを使用すると、複数のファイル(200 csvファイル)で同じ結果を得ることができます。
ファイルに順番に番号が付けられていない場合は、以下の手間のかからないアプローチを採用してください。Windowsマシン上のPython 3.6:
import pandas as pd
from glob import glob
interesting_files = glob("C:/temp/*.csv") # it grabs all the csv files from the directory you mention here
df_list = []
for filename in sorted(interesting_files):
df_list.append(pd.read_csv(filename))
full_df = pd.concat(df_list)
# save the final file in same/different directory:
full_df.to_csv("C:/temp/merged_pandas.csv", index=False)
使いやすい関数:
def csv_merge(destination_path, *source_paths):
'''
Merges all csv files on source_paths to destination_path.
:param destination_path: Path of a single csv file, doesn't need to exist
:param source_paths: Paths of csv files to be merged into, needs to exist
:return: None
'''
with open(destination_path,"a") as dest_file:
with open(source_paths[0]) as src_file:
for src_line in src_file.read():
dest_file.write(src_line)
source_paths.pop(0)
for i in range(len(source_paths)):
with open(source_paths[i]) as src_file:
src_file.next()
for src_line in src_file:
dest_file.write(src_line)
import pandas as pd
import os
df = pd.read_csv("e:\\data science\\kaggle assign\\monthly sales\\Pandas-Data-Science-Tasks-master\\SalesAnalysis\\Sales_Data\\Sales_April_2019.csv")
files = [file for file in os.listdir("e:\\data science\\kaggle assign\\monthly sales\\Pandas-Data-Science-Tasks-master\\SalesAnalysis\\Sales_Data")
for file in files:
print(file)
all_data = pd.DataFrame()
for file in files:
df=pd.read_csv("e:\\data science\\kaggle assign\\monthly sales\\Pandas-Data-Science-Tasks-master\\SalesAnalysis\\Sales_Data\\"+file)
all_data = pd.concat([all_data,df])
all_data.head()