Pythonでメモリ使用量をプロファイルするにはどうすればよいですか?


230

私は最近アルゴリズムに興味を持ち、単純な実装を記述してさまざまな方法で最適化することにより、それらの探索を始めました。

ランタイムのプロファイリング用の標準のPythonモジュールについてはよく知っています(ほとんどの場合、IPythonのtimeitマジック関数で十分であることがわかっています)が、メモリ使用量にも興味があるので、これらのトレードオフも調査できます(たとえば、以前に計算された値のテーブルをキャッシュするコストと、必要に応じてそれらを再計算するコスト)。特定の関数のメモリ使用量をプロファイルするモジュールはありますか?


回答:


118

これはすでにここで回答されています:Pythonメモリプロファイラ

基本的にあなたはそのようなことをします(Guppy-PEから引用):

>>> from guppy import hpy; h=hpy()
>>> h.heap()
Partition of a set of 48477 objects. Total size = 3265516 bytes.
 Index  Count   %     Size   % Cumulative  % Kind (class / dict of class)
     0  25773  53  1612820  49   1612820  49 str
     1  11699  24   483960  15   2096780  64 tuple
     2    174   0   241584   7   2338364  72 dict of module
     3   3478   7   222592   7   2560956  78 types.CodeType
     4   3296   7   184576   6   2745532  84 function
     5    401   1   175112   5   2920644  89 dict of class
     6    108   0    81888   3   3002532  92 dict (no owner)
     7    114   0    79632   2   3082164  94 dict of type
     8    117   0    51336   2   3133500  96 type
     9    667   1    24012   1   3157512  97 __builtin__.wrapper_descriptor
<76 more rows. Type e.g. '_.more' to view.>
>>> h.iso(1,[],{})
Partition of a set of 3 objects. Total size = 176 bytes.
 Index  Count   %     Size   % Cumulative  % Kind (class / dict of class)
     0      1  33      136  77       136  77 dict (no owner)
     1      1  33       28  16       164  93 list
     2      1  33       12   7       176 100 int
>>> x=[]
>>> h.iso(x).sp
 0: h.Root.i0_modules['__main__'].__dict__['x']
>>> 

6
公式のグッピーのドキュメントは少し最小限です。他のリソースについては、この例簡単なエッセイを参照してください。
tutuDajuju

14
グッピーはもう保守されていないようですので、この回答をダウングレードして、代わりに他の回答の1つを受け入れることをお勧めします。
robguinness

1
@robguinness格下げとは、反対票を投じることを意味しますか?ある時点で価値があったので、それは公平ではないようです。Xの理由で無効になり、代わりにYまたはZの回答が表示されることを示す、最上部の編集内容と思います。この行動方針の方が適切だと思います。
WinEunuuchs2Unix

1
確かに、それも機能しますが、受け入れられ、最も投票された回答に、引き続き機能し、維持されるソリューションが含まれていれば、なんとかなるでしょう。
robguinness

92

Python 3.4には、新しいモジュールが含まれていますtracemalloc。最も多くのメモリを割り当てているコードに関する詳細な統計を提供します。以下は、メモリを割り当てる上位3行を表示する例です。

from collections import Counter
import linecache
import os
import tracemalloc

def display_top(snapshot, key_type='lineno', limit=3):
    snapshot = snapshot.filter_traces((
        tracemalloc.Filter(False, "<frozen importlib._bootstrap>"),
        tracemalloc.Filter(False, "<unknown>"),
    ))
    top_stats = snapshot.statistics(key_type)

    print("Top %s lines" % limit)
    for index, stat in enumerate(top_stats[:limit], 1):
        frame = stat.traceback[0]
        # replace "/path/to/module/file.py" with "module/file.py"
        filename = os.sep.join(frame.filename.split(os.sep)[-2:])
        print("#%s: %s:%s: %.1f KiB"
              % (index, filename, frame.lineno, stat.size / 1024))
        line = linecache.getline(frame.filename, frame.lineno).strip()
        if line:
            print('    %s' % line)

    other = top_stats[limit:]
    if other:
        size = sum(stat.size for stat in other)
        print("%s other: %.1f KiB" % (len(other), size / 1024))
    total = sum(stat.size for stat in top_stats)
    print("Total allocated size: %.1f KiB" % (total / 1024))


tracemalloc.start()

counts = Counter()
fname = '/usr/share/dict/american-english'
with open(fname) as words:
    words = list(words)
    for word in words:
        prefix = word[:3]
        counts[prefix] += 1
print('Top prefixes:', counts.most_common(3))

snapshot = tracemalloc.take_snapshot()
display_top(snapshot)

そしてここに結果があります:

Top prefixes: [('con', 1220), ('dis', 1002), ('pro', 809)]
Top 3 lines
#1: scratches/memory_test.py:37: 6527.1 KiB
    words = list(words)
#2: scratches/memory_test.py:39: 247.7 KiB
    prefix = word[:3]
#3: scratches/memory_test.py:40: 193.0 KiB
    counts[prefix] += 1
4 other: 4.3 KiB
Total allocated size: 6972.1 KiB

メモリリークがリークではないのはいつですか?

この例は、計算の最後にメモリがまだ保持されている場合に最適ですが、多くのメモリを割り当ててすべて解放するコードがある場合があります。技術的にはメモリリークではありませんが、必要以上に多くのメモリを使用しています。すべてが解放されたときに、メモリ使用量をどのように追跡できますか?それが自分のコードである場合は、デバッグコードを追加して、実行中にスナップショットを取得できます。そうでない場合は、バックグラウンドスレッドを開始して、メインスレッドの実行中にメモリ使用量を監視できます。

これは、コードがすべてcount_prefixes()関数に移動された前の例です。その関数が戻ると、すべてのメモリが解放されます。またsleep()、長時間実行される計算をシミュレートするための呼び出しも追加しました。

from collections import Counter
import linecache
import os
import tracemalloc
from time import sleep


def count_prefixes():
    sleep(2)  # Start up time.
    counts = Counter()
    fname = '/usr/share/dict/american-english'
    with open(fname) as words:
        words = list(words)
        for word in words:
            prefix = word[:3]
            counts[prefix] += 1
            sleep(0.0001)
    most_common = counts.most_common(3)
    sleep(3)  # Shut down time.
    return most_common


def main():
    tracemalloc.start()

    most_common = count_prefixes()
    print('Top prefixes:', most_common)

    snapshot = tracemalloc.take_snapshot()
    display_top(snapshot)


def display_top(snapshot, key_type='lineno', limit=3):
    snapshot = snapshot.filter_traces((
        tracemalloc.Filter(False, "<frozen importlib._bootstrap>"),
        tracemalloc.Filter(False, "<unknown>"),
    ))
    top_stats = snapshot.statistics(key_type)

    print("Top %s lines" % limit)
    for index, stat in enumerate(top_stats[:limit], 1):
        frame = stat.traceback[0]
        # replace "/path/to/module/file.py" with "module/file.py"
        filename = os.sep.join(frame.filename.split(os.sep)[-2:])
        print("#%s: %s:%s: %.1f KiB"
              % (index, filename, frame.lineno, stat.size / 1024))
        line = linecache.getline(frame.filename, frame.lineno).strip()
        if line:
            print('    %s' % line)

    other = top_stats[limit:]
    if other:
        size = sum(stat.size for stat in other)
        print("%s other: %.1f KiB" % (len(other), size / 1024))
    total = sum(stat.size for stat in top_stats)
    print("Total allocated size: %.1f KiB" % (total / 1024))


main()

そのバージョンを実行すると、メモリの使用量が6MBから4KBに減少しました。これは、関数が終了するとすべてのメモリを解放したためです。

Top prefixes: [('con', 1220), ('dis', 1002), ('pro', 809)]
Top 3 lines
#1: collections/__init__.py:537: 0.7 KiB
    self.update(*args, **kwds)
#2: collections/__init__.py:555: 0.6 KiB
    return _heapq.nlargest(n, self.items(), key=_itemgetter(1))
#3: python3.6/heapq.py:569: 0.5 KiB
    result = [(key(elem), i, elem) for i, elem in zip(range(0, -n, -1), it)]
10 other: 2.2 KiB
Total allocated size: 4.0 KiB

これが、メモリ使用量を監視するための2番目のスレッドを開始する別の回答に触発されたバージョンです。

from collections import Counter
import linecache
import os
import tracemalloc
from datetime import datetime
from queue import Queue, Empty
from resource import getrusage, RUSAGE_SELF
from threading import Thread
from time import sleep

def memory_monitor(command_queue: Queue, poll_interval=1):
    tracemalloc.start()
    old_max = 0
    snapshot = None
    while True:
        try:
            command_queue.get(timeout=poll_interval)
            if snapshot is not None:
                print(datetime.now())
                display_top(snapshot)

            return
        except Empty:
            max_rss = getrusage(RUSAGE_SELF).ru_maxrss
            if max_rss > old_max:
                old_max = max_rss
                snapshot = tracemalloc.take_snapshot()
                print(datetime.now(), 'max RSS', max_rss)


def count_prefixes():
    sleep(2)  # Start up time.
    counts = Counter()
    fname = '/usr/share/dict/american-english'
    with open(fname) as words:
        words = list(words)
        for word in words:
            prefix = word[:3]
            counts[prefix] += 1
            sleep(0.0001)
    most_common = counts.most_common(3)
    sleep(3)  # Shut down time.
    return most_common


def main():
    queue = Queue()
    poll_interval = 0.1
    monitor_thread = Thread(target=memory_monitor, args=(queue, poll_interval))
    monitor_thread.start()
    try:
        most_common = count_prefixes()
        print('Top prefixes:', most_common)
    finally:
        queue.put('stop')
        monitor_thread.join()


def display_top(snapshot, key_type='lineno', limit=3):
    snapshot = snapshot.filter_traces((
        tracemalloc.Filter(False, "<frozen importlib._bootstrap>"),
        tracemalloc.Filter(False, "<unknown>"),
    ))
    top_stats = snapshot.statistics(key_type)

    print("Top %s lines" % limit)
    for index, stat in enumerate(top_stats[:limit], 1):
        frame = stat.traceback[0]
        # replace "/path/to/module/file.py" with "module/file.py"
        filename = os.sep.join(frame.filename.split(os.sep)[-2:])
        print("#%s: %s:%s: %.1f KiB"
              % (index, filename, frame.lineno, stat.size / 1024))
        line = linecache.getline(frame.filename, frame.lineno).strip()
        if line:
            print('    %s' % line)

    other = top_stats[limit:]
    if other:
        size = sum(stat.size for stat in other)
        print("%s other: %.1f KiB" % (len(other), size / 1024))
    total = sum(stat.size for stat in top_stats)
    print("Total allocated size: %.1f KiB" % (total / 1024))


main()

このresourceモジュールでは、現在のメモリ使用量を確認し、ピーク時のメモリ使用量からスナップショットを保存できます。キューを使用すると、メインスレッドがメモリモニタースレッドにレポートを印刷してシャットダウンするタイミングを通知できます。実行すると、list()呼び出しで使用されているメモリが表示されます。

2018-05-29 10:34:34.441334 max RSS 10188
2018-05-29 10:34:36.475707 max RSS 23588
2018-05-29 10:34:36.616524 max RSS 38104
2018-05-29 10:34:36.772978 max RSS 45924
2018-05-29 10:34:36.929688 max RSS 46824
2018-05-29 10:34:37.087554 max RSS 46852
Top prefixes: [('con', 1220), ('dis', 1002), ('pro', 809)]
2018-05-29 10:34:56.281262
Top 3 lines
#1: scratches/scratch.py:36: 6527.0 KiB
    words = list(words)
#2: scratches/scratch.py:38: 16.4 KiB
    prefix = word[:3]
#3: scratches/scratch.py:39: 10.1 KiB
    counts[prefix] += 1
19 other: 10.8 KiB
Total allocated size: 6564.3 KiB

Linuxを使用している場合/proc/self/statmは、resourceモジュールよりも便利な場合があります。


これはすばらしいですが、「count_prefixes()」内の関数が戻ったときのインターバル中にのみスナップショットを印刷するようです。つまり、関数long_running()内など、長時間実行される呼び出しがある場合count_prefixes()、最大RSS値は、long_running()戻るまで印刷されません。それとも私は間違っていますか?
robguinness 2018年

@robguinness、間違いだと思います。memory_monitor()はとは別のスレッドで実行されているcount_prefixes()ため、一方が他方に影響を与えることができる唯一の方法は、GILと私が渡すメッセージキューですmemory_monitor()。をcount_prefixes()呼び出すとsleep()、スレッドのコンテキストが切り替わるようになると思います。long_running()実際にそれほど時間がかかっていない場合は、でsleep()コールバックするまでスレッドコンテキストが切り替わらない可能性がありますcount_prefixes()。それが意味をなさない場合は、新しい質問を投稿して、ここからリンクしてください。
Don Kirkby

ありがとう。新しい質問を投稿して、ここにリンクを追加します。(私はコードの独占的な部分を共有することができないので、私は私が抱えている問題の例を作り上げる必要があります。)
robguinness

31

オブジェクトのメモリ使用量だけを見たい場合は、(他の質問への回答

モジュールを含むPymplerと呼ばれるモジュールがありasizeof ます。

次のように使用します。

from pympler import asizeof
asizeof.asizeof(my_object)

とは異なりsys.getsizeof自分で作成したオブジェクトに対して機能します

>>> asizeof.asizeof(tuple('bcd'))
200
>>> asizeof.asizeof({'foo': 'bar', 'baz': 'bar'})
400
>>> asizeof.asizeof({})
280
>>> asizeof.asizeof({'foo':'bar'})
360
>>> asizeof.asizeof('foo')
40
>>> asizeof.asizeof(Bar())
352
>>> asizeof.asizeof(Bar().__dict__)
280
>>> help(asizeof.asizeof)
Help on function asizeof in module pympler.asizeof:

asizeof(*objs, **opts)
    Return the combined size in bytes of all objects passed as positional arguments.

1
これはRSSに関連していますか?
pg2455 2018

1
@mousecoder:en.wikipedia.org/wiki/RSS_( disambiguation)のどのRSS ですか?Webフィード?どうやって?
serv-inc

2
@ serv-inc 常駐セットサイズ。ただし、Pymplerのソースでそれについての言及は1つしか見つけることができず、その言及は直接関連付けられていないようですasizeof
jkmartindale

1
@mousecoderによって報告されたメモリはasizeofRSSに貢献できます。他に「関連する」とはどういう意味かわかりません。
OrangeDog

1
@ serv-incは、それが可能な場合は非常にケース固有である可能性があります。しかし、1つの大きな多次元辞書を測定する私のユースケースでは、1 tracemalloc桁未満の解を見つけました
ulkas

22

開示:

  • Linuxでのみ適用可能
  • 全体ではなく、個人として、現在のプロセスが使用するメモリレポート機能の中を

しかし、その単純さのために素晴らしいです:

import resource
def using(point=""):
    usage=resource.getrusage(resource.RUSAGE_SELF)
    return '''%s: usertime=%s systime=%s mem=%s mb
           '''%(point,usage[0],usage[1],
                usage[2]/1024.0 )

using("Label")何が起こっているのかを見たいところに挿入するだけです。例えば

print(using("before"))
wrk = ["wasting mem"] * 1000000
print(using("after"))

>>> before: usertime=2.117053 systime=1.703466 mem=53.97265625 mb
>>> after: usertime=2.12023 systime=1.70708 mem=60.8828125 mb

6
「特定の関数のメモリ使用量」なので、あなたのアプローチは役に立ちません。
グラスロス2013

見て、usage[2]あなたを見ているのru_maxrssであるプロセスの一部のみである、常駐。プロセスが部分的にであってもディスクにスワップされている場合、これはあまり役に立ちません。
Louis

8
resourceWindowsで動作しないUnix固有のモジュールです。
マーティン

1
ru_maxrss(つまりusage[2])の単位はkBであり、ページではないので、その数にを掛ける必要はありませんresource.getpagesize()
Tey '

1
これは私には何も出力しませんでした。
クォンタムポテト

7

私の意見では、受け入れられた回答と次に投票された回答にもいくつかの問題があるため、Ihor B.の回答に基づいたもう1つの回答を提供します。

このソリューションは、あなたが上のプロファイリングを実行することを可能にするのいずれかで関数呼び出しをラップすることによってprofile、機能とそれを呼び出したりして、あなたの関数/メソッドを飾ることで@profileデコレータ。

最初の手法は、ソースをいじらずにサードパーティのコードをプロファイリングしたい場合に便利ですが、2番目の手法は少し「よりクリーン」であり、関数/メソッドのソースを変更してもかまわない場合により効果的です。プロファイルしたい。

また、RSS、VMS、および共有メモリを取得できるように出力を変更しました。「before」と「after」の値はあまり気にせず、デルタだけなので、それらを削除しました(Ihor B.の答えと比較している場合)。

プロファイリングコード

# profile.py
import time
import os
import psutil
import inspect


def elapsed_since(start):
    #return time.strftime("%H:%M:%S", time.gmtime(time.time() - start))
    elapsed = time.time() - start
    if elapsed < 1:
        return str(round(elapsed*1000,2)) + "ms"
    if elapsed < 60:
        return str(round(elapsed, 2)) + "s"
    if elapsed < 3600:
        return str(round(elapsed/60, 2)) + "min"
    else:
        return str(round(elapsed / 3600, 2)) + "hrs"


def get_process_memory():
    process = psutil.Process(os.getpid())
    mi = process.memory_info()
    return mi.rss, mi.vms, mi.shared


def format_bytes(bytes):
    if abs(bytes) < 1000:
        return str(bytes)+"B"
    elif abs(bytes) < 1e6:
        return str(round(bytes/1e3,2)) + "kB"
    elif abs(bytes) < 1e9:
        return str(round(bytes / 1e6, 2)) + "MB"
    else:
        return str(round(bytes / 1e9, 2)) + "GB"


def profile(func, *args, **kwargs):
    def wrapper(*args, **kwargs):
        rss_before, vms_before, shared_before = get_process_memory()
        start = time.time()
        result = func(*args, **kwargs)
        elapsed_time = elapsed_since(start)
        rss_after, vms_after, shared_after = get_process_memory()
        print("Profiling: {:>20}  RSS: {:>8} | VMS: {:>8} | SHR {"
              ":>8} | time: {:>8}"
            .format("<" + func.__name__ + ">",
                    format_bytes(rss_after - rss_before),
                    format_bytes(vms_after - vms_before),
                    format_bytes(shared_after - shared_before),
                    elapsed_time))
        return result
    if inspect.isfunction(func):
        return wrapper
    elif inspect.ismethod(func):
        return wrapper(*args,**kwargs)

上記のコードが次のように保存されている場合の使用例profile.py

from profile import profile
from time import sleep
from sklearn import datasets # Just an example of 3rd party function call


# Method 1
run_profiling = profile(datasets.load_digits)
data = run_profiling()

# Method 2
@profile
def my_function():
    # do some stuff
    a_list = []
    for i in range(1,100000):
        a_list.append(i)
    return a_list


res = my_function()

これにより、次のような出力が得られます。

Profiling:        <load_digits>  RSS:   5.07MB | VMS:   4.91MB | SHR  73.73kB | time:  89.99ms
Profiling:        <my_function>  RSS:   1.06MB | VMS:   1.35MB | SHR       0B | time:   8.43ms

いくつかの重要な最終メモ:

  1. マシン上で他の多くのことが発生している可能性があるため、このプロファイリング方法は概算にすぎないことに注意してください。ガベージコレクションやその他の要因により、デルタはゼロになる場合さえあります。
  2. 不明な理由により、非常に短い関数呼び出し(例:1または2 ms)は、メモリ使用量ゼロで表示されます。これは、メモリ統計が更新される頻度に関するハードウェア/ OS(Linuxを搭載した基本的なラップトップでテスト済み)の制限であると私は思います。
  3. 例を簡単にするために、関数の引数は使用しませんでしたが、期待どおりに機能するはず profile(my_function, arg)です。my_function(arg)

7

以下は、関数呼び出しの前、関数呼び出しの後にプロセスが消費したメモリ量を追跡できる単純な関数デコレータであり、違いは何ですか。

import time
import os
import psutil


def elapsed_since(start):
    return time.strftime("%H:%M:%S", time.gmtime(time.time() - start))


def get_process_memory():
    process = psutil.Process(os.getpid())
    return process.get_memory_info().rss


def profile(func):
    def wrapper(*args, **kwargs):
        mem_before = get_process_memory()
        start = time.time()
        result = func(*args, **kwargs)
        elapsed_time = elapsed_since(start)
        mem_after = get_process_memory()
        print("{}: memory before: {:,}, after: {:,}, consumed: {:,}; exec time: {}".format(
            func.__name__,
            mem_before, mem_after, mem_after - mem_before,
            elapsed_time))
        return result
    return wrapper

詳細はこちらのブログをご覧ください。(アーカイブされたリンク


4
少なくともubuntuとpython 3.6ではそうではありprocess.memory_info().rssませんprocess.get_memory_info().rss。関連するstackoverflow.com/questions/41012058/psutil-error-on-macos
jangorecki

1
あなたは3.xに関して正しいです。私の顧客は最新バージョンではなくPython 2.7を使用しています。
Ihor B.

4

多分それは助ける:
< 追加を参照 >

pip install gprof2dot
sudo apt-get install graphviz

gprof2dot -f pstats profile_for_func1_001 | dot -Tpng -o profile.png

def profileit(name):
    """
    @profileit("profile_for_func1_001")
    """
    def inner(func):
        def wrapper(*args, **kwargs):
            prof = cProfile.Profile()
            retval = prof.runcall(func, *args, **kwargs)
            # Note use of name from outer scope
            prof.dump_stats(name)
            return retval
        return wrapper
    return inner

@profileit("profile_for_func1_001")
def func1(...)

1

関数の結果を返しながら、memory_profileを使用してコード/関数のブロックのメモリ使用量を計算する簡単な例:

import memory_profiler as mp

def fun(n):
    tmp = []
    for i in range(n):
        tmp.extend(list(range(i*i)))
    return "XXXXX"

コードを実行する前にメモリ使用量を計算してから、コード中の最大使用量を計算します。

start_mem = mp.memory_usage(max_usage=True)
res = mp.memory_usage(proc=(fun, [100]), max_usage=True, retval=True) 
print('start mem', start_mem)
print('max mem', res[0][0])
print('used mem', res[0][0]-start_mem)
print('fun output', res[1])

関数の実行中にサンプリングポイントの使用量を計算します。

res = mp.memory_usage((fun, [100]), interval=.001, retval=True)
print('min mem', min(res[0]))
print('max mem', max(res[0]))
print('used mem', max(res[0])-min(res[0]))
print('fun output', res[1])

クレジット:@skeept

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.