タグ付けされた質問 「limit」

プロセスまたはプロセスのグループによるリソース(メモリ、ディスク容量、CPU時間、開いているファイル、ネットワーク帯域幅など)の使用を制限します。

5
/etc/security/limits.confの変更には再起動が必要ですか?
変更/etc/security/limits.confを有効にするには再起動が必要ですか? に次の制限を設定するスクリプトがある場合/etc/security/limits.conf、これらの制限が有効になる前にシステムを再起動する必要がありますか? * hard nofile 94000 * soft nofile 94000 * hard nproc 64000 * soft nproc 64000
144 limit  ulimit 

3
Linuxで開いているファイルの数が制限されているのはなぜですか?
今、私は方法を知っています: プロセスごとに開くファイルの制限を見つける: ulimit -n すべてのプロセスで開かれているすべてのファイルをカウントします。 lsof | wc -l 開いているファイルの最大許容数を取得します。 cat /proc/sys/fs/file-max 私の質問は次のとおりです。Linuxで開いているファイルに制限があるのはなぜですか?
136 open-files  limit 

7
lsによって印刷されるファイルの数を制限するにはどうすればよいですか?
lsコマンドでリストされるファイルの量を制限する方法はありますか? 私は見た: ls | head -4 しかし、取得headまたは実行するには、実行が完了tailするまで待機する必要がありますls。また、ディレクトリには膨大な量のファイルがあり、かなりの時間がかかる可能性があります。 lsそのheadコマンドを使用せずに制限するコマンドを実行したい。
89 command-line  ls  limit 

3
RAMの使用が制限されているユーザーを作成する方法は?
そのため、4 GB RAM + 4 GBスワップがあります。RAMとスワップが制限されたユーザーを作成したい:3 GB RAMと1 GBスワップ。そのようなことは可能ですか?RAMを制限してアプリケーションを起動し、別のユーザーを作成せずに利用可能なスワップを実行することは可能ですか(特別なアプリをインストールせず、デフォルトのDebian / CentOSサーバー構成のみを使用し、sudoを使用しないでください)? 更新: そこで、terminallを開いてulimitコマンドを入力しました。ulimit -v 1000000これは976,6Mb制限のようなものです。次に、私は電話ulimit -aし、制限が「​​オン」であることを確認しました。その後nohup、長い アプリでコンパイルして起動するbashスクリプトを開始しましたnohup ./cloud-updater-linux.sh >& /dev/null &... (制限が適用されない場合は問題ありません-大きなlibをダウンロードし、コンパイルを開始しました。) しかし、私はシェルに制限し、それから/で起動するすべてのプロセスを適用すると思いましたかulimit -v 1000000?何が間違っていたのですか?端末とそれが起動するすべてのサブプロセスをラムの使用に制限する方法は?

3
4.3カーネルで「リソースが一時的に利用不可」でスレッドの作成が失敗する
いくつかのコンテナでArch Linux(カーネル4.3.3-2)でdockerサーバーを実行しています。前回の再起動以来、ドッカーサーバーとコンテナ内のランダムプログラムの両方がクラッシュし、スレッドを作成できない、または(あまり頻繁ではありませんが)フォークするというメッセージが表示されます。特定のエラーメッセージはプログラムによって異なりますが、それらのほとんどは特定のエラーに言及しているようですResource temporarily unavailable。エラーメッセージの例については、この投稿の最後をご覧ください。 今、このエラーメッセージを受け取った人がたくさんいますし、彼らへの応答もたくさんあります。本当にイライラするのは、誰もが問題を解決する方法を推測しているように見えることですが、問題の多くの考えられる原因のどれが存在するかを特定する方法を誰も指摘していないようです。 エラーの考えられる5つの原因と、それらがシステムに存在しないことを確認する方法を収集しました。 /proc/sys/kernel/threads-max(source)で設定されるスレッドの数にはシステム全体の制限があります。私の場合、これはに設定されてい60613ます。 すべてのスレッドはスタック内のスペースを使用します。スタックサイズの制限はulimit -s(source)を使用して構成されます。私のシェルの制限があることに使用される8192が、私は置くことによって、それが増加している* soft stack 32768に/etc/security/limits.confので、ulimit -s今戻ります32768。私も入れてドッキングウィンドウのプロセスのためにそれを増加しているLimitSTACK=33554432に/etc/systemd/system/docker.service(ソース、と私は限界が覗くことで適用されていることを確認/proc/<pid of docker>/limitsし、実行することにより、ulimit -sドッキングウィンドウコンテナ内。 すべてのスレッドはいくらかのメモリを消費します。仮想メモリの制限は、を使用して構成されますulimit -v。私のシステムではに設定されてunlimitedおり、3 GBのメモリの80%が無料です。 を使用するプロセスの数には制限がありますulimit -u。この場合、スレッドはプロセスとしてカウントされます(source)。私のシステムでは、制限はに設定されて30306おり、Dockerデーモンおよび内部のdockerコンテナの場合、制限は1048576です。現在実行中のスレッドの数は、実行ls -1d /proc/*/task/* | wc -lまたは実行ps -elfT | wc -l(source)によって確認できます。私のシステムでは、それらはとの間に700あり800ます。 開いているファイルの数には制限があります。一部のソースによると、これはスレッドを作成するときにも関係します。制限はを使用して設定されますulimit -n。私のシステムと内部ドッカーでは、制限がに設定されてい1048576ます。開いているファイルの数はlsof | wc -l(source)を使用して調べることができます30000。私のシステムでは約です。 最後のリブート前にカーネル4.2.5-1を実行していたように見えますが、現在は4.3.3-2を実行しています。4.2.5-1にダウングレードすると、すべての問題が修正されます。この問題に言及している他の投稿はthisとthisです。Arch Linuxのバグレポートを開きました。 これを引き起こしている可能性のあるカーネルの変更点は何ですか? エラーメッセージの例を次に示します。 Crash dump was written to: erl_crash.dump Failed to create aux thread …
39 linux  docker  limit  fork  thread 


7
CPU使用率の10%を超えないようにプロセスを制限する
私は多くのユーザーがいるLinuxシステムを運用していますが、時には乱用が発生します。ユーザーがCPU /メモリの80%以上を使用する単一のプロセスを実行する場合。 プロセスが使用できるCPU使用量を制限することで(たとえば10%に)、これを防ぐ方法はありますか?私は知っていますがcpulimit、残念ながら、制限するように指示したプロセス(たとえば、単一のプロセス)に制限を適用します。私の質問は、実行中のすべてのプロセスと、たとえばID /パスを提供する必要なしに将来実行されるプロセスに制限を適用するにはどうすればよいですか?



8
ディスク/ディスクのコピーを遅くする
Linuxでコピープロセスを遅くする方法はありますか? 10GBなどの大きなファイルがあり、別のディレクトリにコピーしたいのですが、フルスピードでコピーしたくありません。もっと速くではなく、1mb / sの速度でコピーしたいとしましょう。標準のLinux cpコマンドを使用したいと思います。 これは可能ですか?(はいの場合、どのように?) 編集:だから、私は達成しようとしているものにもっとコンテキストを追加します。 USB経由で大きなファイルを(ペンドライブ、USBディスクなどに)コピーするときにArchLinuxシステムに問題があります。usbバッファーキャッシュがいっぱいになると、システムが応答しなくなります(マウスが停止することもあります;散発的にしか動きません)。コピー操作はまだ進行中ですが、ボックスの100%のリソースが必要です。コピー操作が完了すると、すべてが正常に戻ります。すべてが完全に応答します。 おそらくハードウェアエラーかもしれませんが、この問題を抱えているマシンが2台あることは知っています(両方ともArchLinux上にあり、1台はデスクトップボックス、2台目はラップトップです)。 これに対する最も簡単で最速の「解決策」は、USBドライブの平均書き込み速度でファイルをコピーすることにより、このバッファがいっぱいになるのを防ぐことです(「本当の」解決策ではなく、単なるい「ハック」です)それで十分でしょう。

4
特定のプロセスのulimit(ファイルを開く)を変更する
それは変更することは可能です-ソフトとハードリミットの特定のプロセスを? 私の場合、私のプロセスはそうでmongodあり、多くのWebリソースが単純に実行するように言っています: ulimit -n <my new value> 私の現在の考え: 変更するプロセスの制限をコマンドはどのように知るのですか?これはシステム全体のオープンファイル制限を変更しませんか? このコマンドはソフト制限のみを変更すると推測しています。それで、ハード制限を増やす方法はありますか?
27 limit  ulimit 

4
特定のプロセスのCPU + RAMを節約するために、リソースの使用を制限する方法は?
sshdマシンのRAMが不足しているために動作しなくなることがある開発サーバーがあります。はい、メモリが不足しており、現在のところアップグレードは適切な選択ではありません。私がやりたいのは、マシンに「あなたがやりたいことは何でもやりましょう。ただし、20MBとCPUを省いてsshdください!」です。 どうすればできますか?

1
limits.conf値はプロセスごとに適用されますか?
私はoracleユーザーのnofile値を調整しています/etc/security/limits.confが、その動作について質問があります:すべてのプロセスでnofileユーザーが開くことができるファイルの総数を制限するか、ユーザーが持つことができるファイルの総数を制限しますプロセスごとに開いていますか? 具体的には、次の使用法の場合: oracle hard nofile 65536
25 linux  files  limit 


3
btrfsスナップショットの数の実用的な制限は?
snapper、またはsnapperのようなものを使用して時間ベースのスナップショットを取得できるように、データドライブでbtrfsを使用することを検討しています。これにより、古いバージョンのデータを参照できると思います。ドライブの障害によりデータとスナップショットが消去されるため、これは現在のオフサイトバックアップに追加されます。 私の理解では、btrfsスナップショットは多くのスペース(メタデータと変更されたブロックに加えていくらかのオーバーヘッド)を占有しないため、スペースは制約ではないようです。 データ、変更されたデータ、およびメタデータのための十分なディスク容量があると仮定して、100万のスナップショット(たとえば、2年間1分ごとのスナップショット)があると大混乱になりますか? スナップショットの数に実用的な制限がある場合、ファイルの数やファイルのサイズに依存しますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.