私は4GBの非常に大きなファイルを持っていますが、それを読み込もうとするとコンピューターがハングします。だから私はそれを少しずつ読みたいと思います、そして各ピースを処理した後、処理されたピースを別のファイルに保存して次のピースを読みます。
yield
これらの作品に何か方法はありますか?
怠惰な方法が欲しいです。
私は4GBの非常に大きなファイルを持っていますが、それを読み込もうとするとコンピューターがハングします。だから私はそれを少しずつ読みたいと思います、そして各ピースを処理した後、処理されたピースを別のファイルに保存して次のピースを読みます。
yield
これらの作品に何か方法はありますか?
怠惰な方法が欲しいです。
回答:
遅延関数を作成するには、次のように使用しますyield
。
def read_in_chunks(file_object, chunk_size=1024):
"""Lazy function (generator) to read a file piece by piece.
Default chunk size: 1k."""
while True:
data = file_object.read(chunk_size)
if not data:
break
yield data
with open('really_big_file.dat') as f:
for piece in read_in_chunks(f):
process_data(piece)
別のオプションはiter
、ヘルパー関数を使用することです:
f = open('really_big_file.dat')
def read1k():
return f.read(1024)
for piece in iter(read1k, ''):
process_data(piece)
ファイルが行ベースの場合、ファイルオブジェクトは既に行の遅延生成プログラムです。
for line in open('really_big_file.dat'):
process_data(line)
rb
@Tal Weissが述べたように欠落しています。とfile.close()
ステートメントがありません(with open('really_big_file.dat', 'rb') as f:
同じことを実行するために使用できます 。別の簡潔な実装
'rb'
されていない行方不明に。
'b'
彼のデータはなり非常に可能性が破損していること。ドキュメントから -Python on Windows makes a distinction between text and binary files; [...] it’ll corrupt binary data like that in JPEG or EXE files. Be very careful to use binary mode when reading and writing such files.
コンピューター、OS、Pythonが64ビットの場合、mmapモジュールを使用してファイルの内容をメモリーにマップし、インデックスとスライスを使用してアクセスできます。ドキュメントの例:
import mmap
with open("hello.txt", "r+") as f:
# memory-map the file, size 0 means whole file
map = mmap.mmap(f.fileno(), 0)
# read content via standard file methods
print map.readline() # prints "Hello Python!"
# read content via slice notation
print map[:5] # prints "Hello"
# update content using slice notation;
# note that new content must have same size
map[6:] = " world!\n"
# ... and read again using standard file methods
map.seek(0)
print map.readline() # prints "Hello world!"
# close the map
map.close()
お使いのコンピュータ、OSやPythonのいずれかが32ビットであれば、その後のmmap-INGの大きなファイルは、あなたのアドレス空間の大部分を確保することができ餓死メモリのプログラムを。
file.readlines()
返された行で読み取られた行数を概算するオプションのサイズ引数を受け取ります。
bigfile = open('bigfilename','r')
tmp_lines = bigfile.readlines(BUF_SIZE)
while tmp_lines:
process([line for line in tmp_lines])
tmp_lines = bigfile.readlines(BUF_SIZE)
.read()
ないことをお勧めします.readlines()
。ファイルがバイナリの場合、改行は行われません。
すでに多くの良い答えがありますが、ファイル全体が1行にあり、「固定サイズのブロックではなく」「行」を処理したい場合、これらの答えは役に立ちません。
99%の時間、ファイルを1行ずつ処理することが可能です。次に、この回答で提案されているように、ファイルオブジェクト自体を遅延ジェネレーターとして使用できます。
with open('big.csv') as f:
for line in f:
process(line)
しかし、私はかつて、非常に大きな(ほぼ)1行のファイルに出くわしまし'\n'
た'|'
。この場合、行区切り文字は実際にはありませんでした。
'|'
する'\n'
ことも問題外でした'\n'
。このような状況のために、次のスニペットを作成しました。
def rows(f, chunksize=1024, sep='|'):
"""
Read a file where the row separator is '|' lazily.
Usage:
>>> with open('big.csv') as f:
>>> for r in rows(f):
>>> process(row)
"""
curr_row = ''
while True:
chunk = f.read(chunksize)
if chunk == '': # End of file
yield curr_row
break
while True:
i = chunk.find(sep)
if i == -1:
break
yield curr_row + chunk[:i]
curr_row = ''
chunk = chunk[i+1:]
curr_row += chunk
私は問題を解決するためにそれをうまく使うことができました。さまざまなチャンクサイズで広範囲にわたってテストされています。
自分を納得させたい人のためのテストスイート。
test_file = 'test_file'
def cleanup(func):
def wrapper(*args, **kwargs):
func(*args, **kwargs)
os.unlink(test_file)
return wrapper
@cleanup
def test_empty(chunksize=1024):
with open(test_file, 'w') as f:
f.write('')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1
@cleanup
def test_1_char_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
f.write('|')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
@cleanup
def test_1_char(chunksize=1024):
with open(test_file, 'w') as f:
f.write('a')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1
@cleanup
def test_1025_chars_1_row(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1025):
f.write('a')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1
@cleanup
def test_1024_chars_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1023):
f.write('a')
f.write('|')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
@cleanup
def test_1025_chars_1026_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1025):
f.write('|')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 1026
@cleanup
def test_2048_chars_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1022):
f.write('a')
f.write('|')
f.write('a')
# -- end of 1st chunk --
for i in range(1024):
f.write('a')
# -- end of 2nd chunk
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
@cleanup
def test_2049_chars_2_rows(chunksize=1024):
with open(test_file, 'w') as f:
for i in range(1022):
f.write('a')
f.write('|')
f.write('a')
# -- end of 1st chunk --
for i in range(1024):
f.write('a')
# -- end of 2nd chunk
f.write('a')
with open(test_file) as f:
assert len(list(rows(f, chunksize=chunksize))) == 2
if __name__ == '__main__':
for chunksize in [1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024]:
test_empty(chunksize)
test_1_char_2_rows(chunksize)
test_1_char(chunksize)
test_1025_chars_1_row(chunksize)
test_1024_chars_2_rows(chunksize)
test_1025_chars_1026_rows(chunksize)
test_2048_chars_2_rows(chunksize)
test_2049_chars_2_rows(chunksize)
f = ... # file-like object, i.e. supporting read(size) function and
# returning empty string '' when there is nothing to read
def chunked(file, chunk_size):
return iter(lambda: file.read(chunk_size), '')
for data in chunked(f, 65536):
# process the data
更新:アプローチはhttps://stackoverflow.com/a/4566523/38592で最もよく説明されています
pythonの公式ドキュメントを参照して くださいhttps://docs.python.org/zh-cn/3/library/functions.html?#iter
多分この方法はもっとpythonicです:
from functools import partial
"""A file object returned by open() is a iterator with
read method which could specify current read's block size"""
with open('mydata.db', 'r') as f_in:
part_read = partial(f_in.read, 1024*1024)
iterator = iter(part_read, b'')
for index, block in enumerate(iterator, start=1):
block = process_block(block) # process block data
with open(f'{index}.txt', 'w') as f_out:
f_out.write(block)
私たちはこのように書くことができると思います:
def read_file(path, block_size=1024):
with open(path, 'rb') as f:
while True:
piece = f.read(block_size)
if piece:
yield piece
else:
return
for piece in read_file(path):
process_piece(piece)
私は評判が低いためコメントを許可されていませんが、silentGhostsソリューションはfile.readlines([sizehint])を使用するとはるかに簡単になるはずです
編集:SilentGhostは正しいですが、これは以下より優れているはずです。
s = ""
for i in xrange(100):
s += file.next()
私はやや似たような状況にあります。チャンクサイズがバイト単位であるかどうかは不明です。私は通常はしませんが、必要なレコード(行)の数はわかっています。
def get_line():
with open('4gb_file') as file:
for i in file:
yield i
lines_required = 100
gen = get_line()
chunk = [i for i, j in zip(gen, range(lines_required))]
更新:noskloに感謝します。これが私が言ったことです。チャンクの「間」の行を失うことを除いて、ほとんど機能します。
chunk = [next(gen) for i in range(lines_required)]
行を失うことなくトリックを行いますが、見栄えがよくありません。
行ごとに処理するには、これはエレガントなソリューションです。
def stream_lines(file_name):
file = open(file_name)
while True:
line = file.readline()
if not line:
file.close()
break
yield line
空白行がない限り。
open
すでに提供されているものと同等です。ファイルはすでにその行の反復子です。
f = open('really_big_file.dat')
はメモリ消費のない単なるポインタですか?(つまり、消費されるメモリはファイルサイズに関係なく同じですか?)f.readline()ではなくurllib.readline()を使用すると、パフォーマンスにどのように影響しますか?