タグ付けされた質問 「oom-killer」

3
Rsyncは単一の50 GBファイルでLinux OOMキラーをトリガーしました
server_Aに単一の50 GBファイルがあり、それをserver_Bにコピーしています。走る server_A$ rsync --partial --progress --inplace --append-verify 50GB_file root@server_B:50GB_file Server_Bには32 GBのRAMと2 GBのスワップがあります。ほとんどはアイドル状態であり、多くの空きRAMが必要でした。十分なディスク容量があります。約32 GBで、リモート側が接続を閉じたため、転送は中止されます。 Server_Bがネットワークから削除されました。データセンターに再起動を依頼します。クラッシュする前のカーネルログを見ると、0バイトのスワップを使用しており、プロセスリストはごくわずかなメモリを使用していました(rsyncプロセスは600 KBのRAMを使用していると表示されていました)が、oom_killerはワイルドになり、ログの最後の部分は、metalogのカーネルリーダープロセスを強制終了する場所です。 これはカーネル3.2.59、32ビットです(したがって、いずれのプロセスも4 GBを超えるマップはできません)。 まるでLinuxが寿命の長い実行中のデーモンよりもキャッシュを優先しているかのようです。何が?そして、どうすれば再び起こるのを止めることができますか? oom_killerの出力は次のとおりです。 Sep 23 02:04:16 [kernel] [1772321.850644] clamd invoked oom-killer: gfp_mask=0x84d0, order=0, oom_adj=0, oom_score_adj=0 Sep 23 02:04:16 [kernel] [1772321.850649] Pid: 21832, comm: clamd Tainted: G C 3.2.59 #21 Sep 23 02:04:16 [kernel] …
66 rsync  oom  oom-killer 

1
Logstashのスケーリング(redis / elasticsearchを使用)
12 Centos 5.8サーバー以上のクラスター上で、ネイティブのLogstash Shipperを使用してlogstashをデプロイしました。これ/var/log/*/*.logは中央のlogstashサーバーに送り返します。 出荷者としてrsyslogdを使用しようとしましたが、rsyslogdのImFileモジュールのバグにより、リモートエンドが応答しない場合、ログがメモリに蓄積されます。 現在、Redisをトランスポートメカニズムとして使用しているため、logstash01はこれらのログのVLANのIPにバインドされたローカルで実行されているredisを持っています。 そのため、logstash-shipperはlogstash01のredisに送信します。logstash01は、別のプロセスで実行されているElasticsearchに送信します。 これが私たちが見ているものです。Elasticsearchには141個のブロックされたスレッドがあります。elasticsearchの親をたどることは以下を示します: futex(0x7f4ccd1939d0, FUTEX_WAIT, 26374, NULL ここにelasticsearchのjstackがあります これがlogstashのjstackです だから..昨夜、いくつかのウェブサーバー(ログはlogstashに追尾されています)が狂ってしまい、平均負荷は500を超えました。 logstash01には、これがあります Dec 19 00:44:45 logstash01 kernel: [736965.925863] Killed process 23429 (redis-server) total-vm:5493112kB, anon-rss:4248840kB, file-rss:108kB その後、もの..出荷されたサーバ上のメモリに積み上げログ意味のRedisサーバ、殺さOOM-killerがそう何とか Apacheはツイストでその半ズボンを取得することを意味します。(率直に言って、どのように私はそれがわからない、私はちょうどそれがログを尾行していると仮定する)。 これは、イベントがどのように展開したかに関する私の理論です。 トラフィックが急増しました。 膨大な量のログが生成されました。 これらはRedisに積み上げられ、logstash / elasticsearchは300〜400個の新しいイベント/秒しか処理できないようです。 RedisはOOM-killerが無意味に虐殺するまで完全にいっぱいになっていた。 Redisは新しいアイテムの受け入れを停止します。 アイテムは、リモートホスト側で積み上げられます。 すべてがおかしい。Apacheはリクエストの受け入れを停止します。(なぜ?)。 質問は次のとおりです。 ログの末尾に何かが残っているだけで、Apacheがおかしくなるのはなぜですか。apacheが書くことをブロックするのはそれが原因ですか? elasticsearchをより速く/より良く/弾力的にする正しい方法はありますか? redisを弾力的にし、OOMされたために死なないようにする正しい方法はありますか 私がそれをすべて設定した方法に根本的な欠陥がありますか、または誰もがこの問題を抱えていますか? -編集- @lusisのいくつかの仕様。 admin@log01:/etc/init$ free …

4
Linuxの状況
継続的なoom&panicの状況は未解決です。システムがすべてのRAM(36GB)を使い果たすかどうかわかりません。このシステムがなぜこのような状況を引き起こしたのですか?32ビットLinuxシステムのlowmemゾーンに関連していると思われます。カーネルパニックとoom-killerからのログを分析するにはどうすればよいですか? 宜しくお願いします、 カーネル3.10.24 Dec 27 09:19:05 2013 kernel: : [277622.359064] squid invoked oom-killer: gfp_mask=0x42d0, order=3, oom_score_adj=0 Dec 27 09:19:05 2013 kernel: : [277622.359069] squid cpuset=/ mems_allowed=0 Dec 27 09:19:05 2013 kernel: : [277622.359074] CPU: 9 PID: 15533 Comm: squid Not tainted 3.10.24-1.lsg #1 Dec 27 09:19:05 2013 kernel: : [277622.359076] …

2
OOMキラーログで完全なプログラムコマンドライン引数を表示する
OOMキラーログで完全なプログラムコマンドライン引数を表示することは可能ですか?/ var / log / syslogに今表示されているのは Memory cgroup out of memory: Kill process 29187 (beam.smp) score 998 or sacrifice child Killed process 29302 (cpu_sup) total-vm:4300kB, anon-rss:76kB, file-rss:272kB beam.smp invoked oom-killer: gfp_mask=0xd0, order=0, oom_score_adj=0 beam.smp cpuset=/ mems_allowed=0-3 私のマシンには多くのBeam.smpプロセスがあり、OOMキラーによってどのプロセスが強制終了されたかを調べるのはあまり便利ではありません。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.