Pythonで大きなファイルを読み取るための遅延メソッド?


290

私は4GBの非常に大きなファイルを持っていますが、それを読み込もうとするとコンピューターがハングします。だから私はそれを少しずつ読みたいと思います、そして各ピースを処理した後、処理されたピースを別のファイルに保存して次のピースを読みます。

yieldこれらの作品に何か方法はありますか?

怠惰な方法が欲しいです。

回答:


424

遅延関数を作成するには、次のように使用しますyield

def read_in_chunks(file_object, chunk_size=1024):
    """Lazy function (generator) to read a file piece by piece.
    Default chunk size: 1k."""
    while True:
        data = file_object.read(chunk_size)
        if not data:
            break
        yield data


with open('really_big_file.dat') as f:
    for piece in read_in_chunks(f):
        process_data(piece)

別のオプションはiter、ヘルパー関数を使用することです:

f = open('really_big_file.dat')
def read1k():
    return f.read(1024)

for piece in iter(read1k, ''):
    process_data(piece)

ファイルが行ベースの場合、ファイルオブジェクトは既に行の遅延生成プログラムです。

for line in open('really_big_file.dat'):
    process_data(line)

したがって、行f = open('really_big_file.dat')はメモリ消費のない単なるポインタですか?(つまり、消費されるメモリはファイルサイズに関係なく同じですか?)f.readline()ではなくurllib.readline()を使用すると、パフォーマンスにどのように影響しますか?
sumid '24

4
同僚を使用するPosixに挑戦したWindowsとの互換性のためにopen( 'really_big_file.dat'、 'rb')を使用することをお勧めします。
Tal Weiss

6
rb@Tal Weissが述べたように欠落しています。とfile.close()ステートメントがありません(with open('really_big_file.dat', 'rb') as f:同じことを実行するために使用できます 。別の簡潔な実装
cod3monk3y 2014

4
@ cod3monk3y:テキストファイルとバイナリファイルは別物です。どちらのタイプも便利ですが、場合によっては異なります。デフォルト(テキスト)モードでは、ここではすなわち、有用である可能性が'rb'されていない行方不明に。
jfs

2
@ jf-sebastian:真、OPはテキストデータとバイナリデータのどちらを読み取るかを指定しませんでした。彼は上のpython 2.7を使っている場合でも、Windowsのされたバイナリデータを読み込み、それは彼が忘れた場合ことは注目に確かに価値がある'b'彼のデータはなり非常に可能性が破損していることドキュメントから -Python on Windows makes a distinction between text and binary files; [...] it’ll corrupt binary data like that in JPEG or EXE files. Be very careful to use binary mode when reading and writing such files.
cod3monk3y

41

コンピューター、OS、Pythonが64ビットの場合、mmapモジュールを使用してファイルの内容をメモリーにマップし、インデックスとスライスを使用してアクセスできます。ドキュメントの例:

import mmap
with open("hello.txt", "r+") as f:
    # memory-map the file, size 0 means whole file
    map = mmap.mmap(f.fileno(), 0)
    # read content via standard file methods
    print map.readline()  # prints "Hello Python!"
    # read content via slice notation
    print map[:5]  # prints "Hello"
    # update content using slice notation;
    # note that new content must have same size
    map[6:] = " world!\n"
    # ... and read again using standard file methods
    map.seek(0)
    print map.readline()  # prints "Hello  world!"
    # close the map
    map.close()

お使いのコンピュータ、OSやPythonのいずれかが32ビットであれば、その後のmmap-INGの大きなファイルは、あなたのアドレス空間の大部分を確保することができ餓死メモリのプログラムを。


7
これはどのように機能するはずですか?32GBファイルがある場合はどうなりますか?256MB RAMのVMを使用している場合はどうなりますか?このような巨大なファイルのマッピングは、決して良いことではありません。
Savino Sguera、2011年

4
この答えは-12票に値します。これは大きなファイルにそれを使用している人を殺します。
Phyo Arkar Lwin 2012

23
これは、大きなファイルでも64ビットPythonで機能します。ファイルはメモリマップされていますが、メモリに読み込まれないため、物理メモリの容量はファイルサイズよりもはるかに小さくなります。
2013年

1
@SavinoSgueraファイルのmmapで物理メモリのサイズは重要ですか?
Nick T 14

17
@ V3ss0n:64ビットPythonで32GBファイルをmmapしようとしました。動作します(RAMが32 GB未満です)。シーケンスインターフェイスとファイルインターフェイスの両方を使用して、ファイルの先頭、中間、および末尾にアクセスできます。
jfs 2014

37

file.readlines() 返された行で読み取られた行数を概算するオプションのサイズ引数を受け取ります。

bigfile = open('bigfilename','r')
tmp_lines = bigfile.readlines(BUF_SIZE)
while tmp_lines:
    process([line for line in tmp_lines])
    tmp_lines = bigfile.readlines(BUF_SIZE)

1
特に大きなデータを小さなデータに分割するdefaultdictと組み合わせると、それは本当に素晴らしいアイデアです。
フランクワン

4
使用し.read()ないことをお勧めします.readlines()。ファイルがバイナリの場合、改行は行われません。
マイヤーズカーペンター

1
ファイルが1つの巨大な文字列である場合はどうなりますか?
MattSom

28

すでに多くの良い答えがありますが、ファイル全体が1行にあり、「固定サイズのブロックではなく」「行」を処理したい場合、これらの答えは役に立ちません。

99%の時間、ファイルを1行ずつ処理することが可能です。次に、この回答で提案されているように、ファイルオブジェクト自体を遅延ジェネレーターとして使用できます。

with open('big.csv') as f:
    for line in f:
        process(line)

しかし、私はかつて、非常に大きな(ほぼ)1行のファイルに出くわしまし'\n''|'。この場合、行区切り文字は実際にはありませんでした。

  • 行ごとの読み取りはオプションではありませんでしたが、それでも行ごとに処理する必要がありました。
  • このcsvの一部のフィールド(フリーテキストのユーザー入力)が含まれていたため、処理前に変換'|'する'\n'ことも問題外でした'\n'
  • 少なくともlibの初期のバージョンでは、入力を1行ずつ読み取ることがハードコードされているため、csvライブラリの使用も除外されました。

このような状況のために、次のスニペットを作成しました。

def rows(f, chunksize=1024, sep='|'):
    """
    Read a file where the row separator is '|' lazily.

    Usage:

    >>> with open('big.csv') as f:
    >>>     for r in rows(f):
    >>>         process(row)
    """
    curr_row = ''
    while True:
        chunk = f.read(chunksize)
        if chunk == '': # End of file
            yield curr_row
            break
        while True:
            i = chunk.find(sep)
            if i == -1:
                break
            yield curr_row + chunk[:i]
            curr_row = ''
            chunk = chunk[i+1:]
        curr_row += chunk

私は問題を解決するためにそれをうまく使うことができました。さまざまなチャンクサイズで広範囲にわたってテストされています。


自分を納得させたい人のためのテストスイート。

test_file = 'test_file'

def cleanup(func):
    def wrapper(*args, **kwargs):
        func(*args, **kwargs)
        os.unlink(test_file)
    return wrapper

@cleanup
def test_empty(chunksize=1024):
    with open(test_file, 'w') as f:
        f.write('')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1

@cleanup
def test_1_char_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        f.write('|')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

@cleanup
def test_1_char(chunksize=1024):
    with open(test_file, 'w') as f:
        f.write('a')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1

@cleanup
def test_1025_chars_1_row(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1025):
            f.write('a')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1

@cleanup
def test_1024_chars_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1023):
            f.write('a')
        f.write('|')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

@cleanup
def test_1025_chars_1026_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1025):
            f.write('|')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1026

@cleanup
def test_2048_chars_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1022):
            f.write('a')
        f.write('|')
        f.write('a')
        # -- end of 1st chunk --
        for i in range(1024):
            f.write('a')
        # -- end of 2nd chunk
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

@cleanup
def test_2049_chars_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1022):
            f.write('a')
        f.write('|')
        f.write('a')
        # -- end of 1st chunk --
        for i in range(1024):
            f.write('a')
        # -- end of 2nd chunk
        f.write('a')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

if __name__ == '__main__':
    for chunksize in [1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024]:
        test_empty(chunksize)
        test_1_char_2_rows(chunksize)
        test_1_char(chunksize)
        test_1025_chars_1_row(chunksize)
        test_1024_chars_2_rows(chunksize)
        test_1025_chars_1026_rows(chunksize)
        test_2048_chars_2_rows(chunksize)
        test_2049_chars_2_rows(chunksize)

11
f = ... # file-like object, i.e. supporting read(size) function and 
        # returning empty string '' when there is nothing to read

def chunked(file, chunk_size):
    return iter(lambda: file.read(chunk_size), '')

for data in chunked(f, 65536):
    # process the data

更新:アプローチはhttps://stackoverflow.com/a/4566523/38592で最もよく説明されています


これはblobに対してはうまく機能しますが、行で区切られたコンテンツ(行ごとに処理を処理する必要があるCSV、HTMLなど)には
適さ

7

pythonの公式ドキュメントを参照して くださいhttps://docs.python.org/zh-cn/3/library/functions.html?#iter

多分この方法はもっとpythonicです:

from functools import partial

"""A file object returned by open() is a iterator with
read method which could specify current read's block size"""
with open('mydata.db', 'r') as f_in:

    part_read = partial(f_in.read, 1024*1024)
    iterator = iter(part_read, b'')

    for index, block in enumerate(iterator, start=1):
        block = process_block(block)    # process block data
        with open(f'{index}.txt', 'w') as f_out:
            f_out.write(block)

3

私たちはこのように書くことができると思います:

def read_file(path, block_size=1024): 
    with open(path, 'rb') as f: 
        while True: 
            piece = f.read(block_size) 
            if piece: 
                yield piece 
            else: 
                return

for piece in read_file(path):
    process_piece(piece)

2

私は評判が低いためコメントを許可されていませんが、silentGhostsソリューションはfile.readlines([sizehint])を使用するとはるかに簡単になるはずです

Pythonファイルのメソッド

編集:SilentGhostは正しいですが、これは以下より優れているはずです。

s = "" 
for i in xrange(100): 
   s += file.next()

わかりました、申し訳ありませんが、あなたは完全に正しいです。しかし、おそらくこの解決策はあなたを幸せにするでしょう;):s = "" for i in xrange(100):s + = file.next()
sinzi

1
-1:ひどい解決策、これは新しい行をメモリに作成し、読み取ったファイルデータ全体を新しい文字列にコピーすることを意味します。最悪のパフォーマンスとメモリ。
nosklo 2009

ファイルデータ全体を新しい文字列にコピーするのはなぜですか?Pythonのドキュメントより:forループをファイルの行をループする最も効率的な方法にするため(非常に一般的な操作)、next()メソッドは非表示の先読みバッファーを使用します。
sinzi 2009

3
@sinzi: "s + ="または文字列を連結すると、そのたびに文字列の新しいコピーが作成されます。文字列は不変なので、新しい文字列を作成しています。
nosklo 2009

1
@nosklo:これらは実装の詳細であり、リストの理解はその場所で使用できます
SilentGhost 2009

1

私はやや似たような状況にあります。チャンクサイズがバイト単位であるかどうかは不明です。私は通常はしませんが、必要なレコード(行)の数はわかっています。

def get_line():
     with open('4gb_file') as file:
         for i in file:
             yield i

lines_required = 100
gen = get_line()
chunk = [i for i, j in zip(gen, range(lines_required))]

更新:noskloに感謝します。これが私が言ったことです。チャンクの「間」の行を失うことを除いて、ほとんど機能します。

chunk = [next(gen) for i in range(lines_required)]

行を失うことなくトリックを行いますが、見栄えがよくありません。


1
この疑似コードは何ですか?動作しません。また、混乱する必要はありません。行数をget_line関数のオプションのパラメーターにする必要があります。
nosklo 2009

0

行ごとに処理するには、これはエレガントなソリューションです。

  def stream_lines(file_name):
    file = open(file_name)
    while True:
      line = file.readline()
      if not line:
        file.close()
        break
      yield line

空白行がない限り。


6
これは非常に複雑で、堅牢性が低く、openすでに提供されているものと同等です。ファイルはすでにその行の反復子です。
abarnert 2013

-2

次のコードを使用できます。

file_obj = open('big_file') 

open()はファイルオブジェクトを返します

次に、os.statを使用してサイズを取得します

file_size = os.stat('big_file').st_size

for i in range( file_size/1024):
    print file_obj.read(1024)

サイズが1024の倍数でない場合、ファイル全体を読み取れません
kmaork
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.