タグ付けされた質問 「performance」

サーバーのハードウェアとソフトウェアのパフォーマンス、またはネットワークのパフォーマンスに関する質問。

7
DisablePagingExecutiveレジストリの変更は実際に影響がありますか?
過去の多くのマシンで、さまざまなバージョンのWindows(2000、XP、Vistaなし)で、DisablePagingExecutiveを有効にしてパフォーマンスを向上させました。どちらの場合も、私はたくさんのメモリを持っていました、そして特に現在のケースではそうです。ただし、このレジストリの微調整を有効にして再起動した後、しばらくしてタスクマネージャーを確認しましたが、2GBの物理メモリが空いているにもかかわらず、ディスクにページングされたカーネルの巨大なチャンクがまだ表示されています。 誰かがこの調整をうまく使用したことがありますか?今まで?タスクマネージャー([パフォーマンス]タブ-> [カーネルメモリ]セクション)をチェックしたときに間違ったインジケーターが表示されているのかもしれませんが、特にWindowsが提供するメモリの量を考慮して、ディスクにページングできるすべてをページングしないようにしたいと思います。最近のデスクトップ。「極端なメモリプレッシャーがない限り、ページングをディスクに行わない」オプションのように見えますが、あるのでしょうか。

1
LVMで単一ディスクのパーティションが使用されている場合のIOPS動作は何ですか?
私は、論理ボリュームを備えたLVM(ハードウェアRAID5でサポート)と、同じsdbディスクから作成されたsdb1 sdb2 sdb3を持つ「dbstore-lv」および「dbstore-vg」というボリュームグループを持つubuntu 14.04.1 LTSサーバーを持っています。42コアのシステムと約128Gのメモリ。htopからの負荷平均出力のCPUスパイクがuptime〜43 +であるのcontext switchesはわかりませんが、vmstatはiowaitが20〜40で一定であり、ピーク時は常に80,000〜150000以上であり、CPUアイドル時間も変動しています70-85。以下はの出力であるiostat -xp 1ところ%util常に100%であるが avg-cpu: %user %nice %system %iowait %steal %idle 8.91 0.00 1.31 10.98 0.00 78.80 Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 0.00 264.00 0.00 58.00 0.00 1428.00 49.24 0.02 0.28 0.00 0.28 0.21 1.20 …

6
サーバーはどの時点でアイドル状態と見なされますか?
概念的に、アイドル状態のサーバーの定義は何ですか? サーバーがアイドル状態であるかどうかを判断するために、どのリソースメトリックを確認しますか? あなたは見ますか: CPU使用率 ディスクの使用状況 メモリ使用量 もしそうなら、何かがアイドル状態であるかどうかを決定するために、これらはどのしきい値になければなりませんか? これらの統計を純粋に見ると、リブートしてパッチを適用すると結果が歪むでしょう。

1
IPoIB(IP over InfiniBand)とRDMAのパフォーマンス
私は部分的にLinux HAクラスターを継承しています。その中心にある2つのDebianホスト間でIPoIB(IP over InfiniBand)を介してDRBD 8との接続を現在提供しています。壊れてないので直さない。 また、DRBD 9がRDMAをサポートしていることにも気づきました。そのため、将来、RDMA(つまり、「ネイティブ」のInfiniBand)を介して接続をDRBD 9に置き換えるかどうかという疑問が生じるかもしれません。 本番システムでパフォーマンステストを実行したくないので、疑問に思っています。IPoIBとRDMA / InfiniBandのパフォーマンス比較が公開されていますか。たとえば、IPoIBから10%、50%、または100%の桁で切り替えて、帯域幅/待ち時間の向上を期待できますか?何が期待できますか?

2
Linuxの最新バージョンでのより高いTCPレイテンシ
私の研究グループでは、最近、マシンのOSをRed Hat 6.2からDebian 8.3にアップグレードし、マシン間の統合Intel 1G NICを介したTCPラウンドトリップ時間が約110µsから220µsに倍増したことを観察しました。 最初は構成の問題だと思ったので、tcp_low_latency=1アップグレードされていないRed HatマシンからDebianマシンにすべてのsysctl構成(など)をコピーしましたが、問題は解決しませんでした。次に、これはLinuxディストリビューションの問題であると考え、マシンにRed Hat 7.2をインストールしましたが、往復時間は約220µsのままでした。 最後に、Debian 8.3とRed Hat 7.2の両方がカーネル3.xを使用していて、Red Hat 6.2がカーネル2.6を使用していたため、問題はLinuxカーネルバージョンにあると考えました。これをテストするために、Linuxカーネル2.6とビンゴでDebian 6.0をインストールしました。時間は再び110µsで速くなりました。 他の人も、最新バージョンのLinuxでこれらの高いレイテンシを経験しましたか?既知の回避策はありますか? 最小作業例 以下は、レイテンシのベンチマークに使用できるC ++アプリケーションです。メッセージを送信し、応答を待ってから、次のメッセージを送信することにより、レイテンシを測定します。100バイトのメッセージでこれを100,000回行います。したがって、クライアントの実行時間を100,000で割ると、往復の待ち時間が得られます。これを使用するには、まずプログラムをコンパイルします。 g++ -o socketpingpong -O3 -std=c++0x Server.cpp 次に、ホストでアプリケーションのサーバー側バージョンを実行します(たとえば、192.168.0.101)。IPを指定して、よく知られているインターフェイスでホストしていることを確認します。 socketpingpong 192.168.0.101 そして、Unixユーティリティtimeを使用して、クライアントの実行時間を測定します。 time socketpingpong 192.168.0.101 client 同一のハードウェアを備えた2つのDebian 8.3ホスト間でこの実験を実行すると、次の結果が得られます。 real 0m22.743s user 0m0.124s sys 0m1.992s Debian 6.0の結果は real 0m11.448s user 0m0.716s sys …

1
数か月後の極端なZFSの減速
私は汎用サーバーを持っており、メール、DNS、ウェブ、データベース、その他のサービスをいくつかのユーザーに提供しています。 Xeon E3-1275(3.40 GHz、16 GB ECC RAM)を搭載しています。Linuxカーネル4.2.3とZFS-on-Linux 0.6.5.3を実行します。 ディスクレイアウトは、2x Seagate ST32000641AS 2 TBドライブと1x Samsung 840 Pro 256 GB SSDです。 RAID-1ミラーに2つのHDがあり、SSDはキャッシュおよびログデバイスとして機能し、すべてZFSで管理されています。 私が最初にシステムをセットアップしたとき、それは驚くほど高速でした。実際のベンチマークはありません。ただ...高速です。 さて、特にすべてのmaildirを保持するファイルシステムで、極端なスローダウンに気づきました。夜間バックアップを実行すると、わずか46 GBのメールで90分以上かかります。場合によっては、バックアップによって非常に大きな負荷が発生し、システムが最大6時間応答しなくなることがあります。 私はこれらのスローダウン中に実行しましたzpool iostat zroot(私のプールはという名前ですzroot)、100〜200kバイト/秒のオーダーの書き込みを見ました。明らかなIOエラーはありません。ディスクは特にハードに動作しているようには見えませんが、読み取りはほとんど不可能に遅いです。 奇妙なことに、FreeBSDを実行しているSSDではなく、同じ仕様のハードウェアを使用して、別のマシンでまったく同じ経験をしました。数か月間は問題なく動作しましたが、同じように遅くなりました。 私の疑いは次のとおりです。zfs-auto-snapshotを使用して、各ファイルシステムのローリングスナップショットを作成します。15分のスナップショット、1時間ごと、1日ごと、1か月ごとのスナップショットを作成し、それぞれのスナップショットを一定数保持して、最も古いスナップショットを削除します。つまり、時間の経過とともに、各ファイルシステムで数千のスナップショットが作成され、破棄されました。これは、累積的な効果があると考えることができる唯一の進行中のファイルシステムレベルの操作です。私はすべてのスナップショットを破棄しようとしました(ただし、プロセスを実行したままにし、新しいスナップショットを作成しました)、変更がないことに気付きました。 スナップショットを常に作成および破棄することに問題はありますか?私はそれらが非常に価値のあるツールであることを発見し、それらが(ディスク領域を除いて)多かれ少なかれゼロコストであると信じるようになりました。 この問題を引き起こしている可能性のある何か他にありますか? 編集:コマンド出力 の出力zpool list: NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zroot 1.81T 282G 1.54T - 22% 15% …

3
Linux:パフォーマンスガバナーを使用すると、CPU周波数が変動するのはなぜですか?
私はベンチマークにDebian 8 amd64マシンを使用しています。実験中は、CPUを固定周波数(できれば可能な限り最大)で動作させたいと思います。これにより、結果の変動の原因としてCPUクロック速度が除外されます。 少し読んだ後、正しいことは、CPUガバナーをに変更することですperformance。これについては、Linuxカーネルのドキュメントで説明しています。 CPUfreqガバナーの「パフォーマンス」は、CPUをstatic_min_freqとscaling_max_freqの境界内で最も高い周波数に静的に設定します。 悲しいことに、およそ詳細scaling_min_freqとはscaling_max_freq付属していません。使用するCPU周波数が間隔の最大値であるため、うまくいけば問題ありません。 だから私はcpufreq-setを使用してこのガバナーを有効にしました: $ cat / sys / devices / system / cpu / cpu * / cpufreq / scaling_governor パフォーマンス パフォーマンス パフォーマンス パフォーマンス そして、適切な対策として、BIOSでターボブーストモードを無効にしました。 $ cat / sys / devices / system / cpu / intel_pstate / no_turbo 1 上記のパフォーマンスガバナーの説明に基づいて、CPUクロック速度の変動はないと予想します。しかし、繰り返し実行するcpufreq-infoと、クロック速度が変動します。 $ cpufreq-info | grep 'current …

3
NGINXが非常に非効率的に大きなmp4ファイルを提供する
私は現在、Centos 6.6 OSでnginx / 1.0.15を実行しています。サーバーには次の仕様があります。 Intel(R)Atom(TM)CPU C2750 @ 2.40GHz(8コア) 32GB RAM 5 x 6000 GB 7200 RPM(RAID 10) 問題 サーバーは1ギガビット/秒の接続を備えていますが、400〜500メガビット/秒の後に最高の状態になり、ボトルネックになります。約100接続でサービスが低下し始めます。サーバーとの速度は劇的に低下します(50%の帯域幅がまだ利用可能であるにもかかわらず)。 NGINXサーバーは、静的な.mp4ファイルを提供するためのものです。各ファイルは通常400〜1200 MB(平均は700 MB) 私は多くの設定を試してみましたが、それらすべてについて同じ結果が得られました。非常にイライラしています。 サーバーの負荷も0.3を超えることはありません。 私の構成に露骨に間違っている、または見当違いの何かがありますか?何かが役立つかもしれません。 構成 /etc/nginx/nginx.conf user nginx; worker_processes 9; error_log /var/log/nginx/error.log; pid /var/run/nginx.pid; events { worker_connections 51200; use epoll; } worker_rlimit_nofile 600000; http { include /etc/nginx/mime.types; default_type …

1
ApacheがMaxClientsに到達したときにユーザーは何を見るのですか?
ときどき、Apacheエラーログで次のことがわかります。 [error] server reached MaxClients setting, consider raising the MaxClients setting 私は過去にメモリ不足の問題が原因でMaxClientsを意図的に(60に)下げましたが、サーバーでこの制限に達したときにユーザー側で何が起こっているのかを正確に知りたいのですが。アクセスしているページの読み込みに時間がかかるだけですか?彼らは何らかのエラーメッセージを受け取りますか?

3
サーバーにSSDではなくSASがあるのはなぜですか?[閉まっている]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? サーバー障害のトピックになるように質問を更新します。 5年前休業。 サーバーにSSDディスクではなくSASディスクが付属しているのはなぜですか?SASは通常のハードドライブより高速ですが、SSDよりもはるかに低速であることは知っています。私も彼らはもっと高価だと思います:s ここでの取引は何ですか?

4
CentOS 6用に24 x 1.2 TBドライブでRAID 5、特にストライプサイズを構成するにはどうすればよいですか?
24 x 1.2TBディスク(および1TB RAM)を搭載したDell R920の場合、高速IOを実現するためにRAID 5構成をセットアップしようとしています。サーバーは、非常に大きなファイルを含むすべてのサイズのファイルを読み書きするKVM VMをホストするために使用されます。サーバーが何らかの理由で故障した場合、故障した部品を交換した後、ベアメタルからサーバーを再プロビジョニングするだけなので、私はデータの安全性にそれほど関心がありません。 したがって、パフォーマンスが主な関心事です。 RAID 5を検討しています。RAID5を使用すると、データを複数のスピンドルに分散できるため、パフォーマンスが向上し、主な懸念事項ではありませんが、データ保護も得られます。NICはデュアル10Gbpsです。 この質問はRAID 5に限定します。これは、これにより最高のパフォーマンスが得られると考えているためです。説得力のあるパフォーマンス上の理由がある場合にのみ、他のことを検討します。しかし、私はRAID 5構成に関連する答えを好むと思います。 さて、上で述べたように、これは私たちの現在の設定の考えです: 24台のハードドライブ:RMCP3:1.2 TB、10000、2.5インチ6 Gbps RAIDコントローラー:H730P、12Gbps SASサポート、2GB NVキャッシュ 1ホットスペア(ドライブが故障した場合に寿命を延ばすため) 23個のデータドライブ(そのうち1個はパリティとして、22個はデータ用に残ります) ストライプサイズ:1MB(1MB / 22データドライブ=ディスクあたり最大46.5KB-または、ストライプサイズを誤解していますか?) 読み取りポリシー:適応型先読み 書き込みポリシー:書き戻し ディスクキャッシュポリシー:有効 ストライプサイズがデータドライブ全体の合計である場合、ドライブあたり最大46.5 KBと計算すると、非常に優れたスループットが得られます。ストライプサイズがスピンドルごとの場合、これはすべて間違っています。 ストライプサイズは、単一のファイルが取るサイズにもなりますか?たとえば、2KBのファイルがある場合、1MBのストライプサイズを選択すると、メガバイト全体が無駄になることになりますか?または、複数のファイルがストライプ内に存在できますか? 最後に、CentOS 6.5(または最新)をインストールするときに、ファイルシステムがRAIDを最適に使用できるようにするために特別なことを行う必要がありますか?たとえば、mkfs.ext4には、オプション-E strideがあり、RAID構成に対応する必要があると言われています。しかし、CentOSのインストール中に、これを行う方法はありますか? 高速IOのためにRAID 5を構成することについてのあなたの考えに感謝します。

3
vSphere ESXi 5.5のLinux VMでディスクI / Oレイテンシが劇的に増加するのはなぜですか?
私は困惑しており、誰かがこの問題の症状を認識してくれることを願っています。 ハードウェア:新しいDell T110 II、デュアルコアPentium G850 2.9 GHz、オンボードSATAコントローラー、ボックス内に新しい500 GB 7200 RPMケーブル接続ハードドライブ、他のドライブは内部にありますがまだマウントされていません。RAIDなし。ソフトウェア:VMware ESXi 5.5.0(ビルド1746018)の下の新しいCentOS 6.5仮想マシン+ vSphere Client。2.5 GBのRAMが割り当てられています。ディスクは、CentOSがそれを設定するために提供した方法、つまり、LVMボリュームグループ内のボリュームとして提供されたものです。ただし、個別の/ homeを省略し、単に/と/ bootを指定しました。CentOSにパッチが適用され、ESXiにパッチが適用され、最新のVMwareツールがVMにインストールされます。システムにユーザーがいない、サービスが実行されていない、ディスクにファイルがない、OSのインストールのみ。vSphere ClientのVM仮想コンソールを介してVMと対話しています。 先に進む前に、多かれ少なかれ合理的に設定したことを確認したいと思いました。VMのシェルでrootとして次のコマンドを実行しました。 for i in 1 2 3 4 5 6 7 8 9 10; do dd if=/dev/zero of=/test.img bs=8k count=256k conv=fdatasync done つまり、ddコマンドを10回繰り返すだけで、毎回転送速度が出力されます。結果は気がかりです。それはうまく始まります: 262144+0 records in 262144+0 records out 2147483648 bytes …

3
CPUを追加するとMySQL 5.5(Debian)のパフォーマンスが低下する
私はOpenVZコンテナーにデータベースサーバー(MySQL)をセットアップしようとしていますが、それに割り当てる必要のあるCPUの数を考えていました。ベンチマークすることにしました。2つのOS / MySQLディストリビューションを比較し、1、2、3、4 CPUでどのように動作するかをテストしました。 最初のソフトウェア構成は次のとおりです。 CentOSリリース6.5(最終) mysql Ver 14.14 Distrib 5.1.71、readline 5.1を使用するredhat-linux-gnu(x86_64)用 二番目: Debian GNU / Linux 7 \ n \ l mysql Ver 14.14 Distrib 5.5.31、debian-linux-gnu(x86_64)、readline 6.2使用 両方が同じカーネルで実行されていました-2.6.32-openvz-042stab083.2-amd64#1 SMP Fri Nov 8 17:59:25 MSK 2013 x86_64 GNU / Linux。 すべてのソフトウェアはパッケージからインストールされ、カスタム構成の微調整なしですぐに使用できます。 ハードウェア:6GB RAM、1-4 CPU 3.5 GHz。 ベンチマークには、sysbenchを次のシナリオで使用しました。 sysbench --test=oltp --oltp-table-size=1000000 …

2
ファイルI / OなしでPostgresが95%アイドル状態になっているのはなぜですか?
OpenStackクラウドの8コアUbuntu 12.04 VMでTileMill / PostGISスタックを実行しています。これは非常によく似たシステムを再構築したもので、先週非常によく似たハードウェア(同じクラウドですが、物理的なハードウェアが異なると思います)でうまく動作していました。私はそれとまったく同じようにスタックを再構築しようとしました(構築したいくつかのスクリプトを使用)。 すべてが実行されますが、データベースは非常にゆっくりとクエリを実行します。これは、最終的に非常に遅いタイルの生成で現れます。以前は10〜20秒程度かかっていたクエリの例(オーストラリアのすべての町の半径内にあるパブの数を数える)は、今では10分以上かかっています。 explain (analyze, buffers) update places set pubs = (select count(*) from planet_osm_point p where p.amenity = 'pub' and st_dwithin(p.way,places.way,scope)) + (select count(*) from planet_osm_polygon p where p.amenity = 'pub' and st_dwithin(p.way,places.way,scope)) ; Update on places (cost=0.00..948254806.93 rows=9037 width=160) (actual time=623321.558..623321.558 rows=0 loops=1) Buffers: shared …

3
RedHatの推奨調整済みプロファイルについて
調整(およびnumad)を最大1000台のサーバーに展開します。それらの大部分は、NetAppまたは3Parストレージ上のVMwareサーバーです。 RedHatsのドキュメントによると、virtual-guestプロファイルを選択する必要があります。それがしていることはここで見ることができます:tuned.conf VMwareとNetApp / 3Parの両方で十分なスケジューリングを行う必要があるため、IOスケジューラをNOOPに変更します。 しかし、ビットを調査した後、私は、彼らが増加している理由はわからないvm.dirty_ratioとkernel.sched_min_granularity_ns。 私が理解している限り、vm.dirty_ratio40%に増加すると、20GBのRAMを搭載したサーバーの場合、vm.dirty_writeback_centisecs最初にヒットしない限り、8GBがいつでもダーティになる可能性があります。そして、これらの8GBをフラッシュしている間、アプリケーションのすべてのIOはダーティページが解放されるまでブロックされます。 dirty_ratioを増やすと、キャッシュが大きくなるため、ピーク時の書き込みパフォーマンスが高くなる可能性がありますが、キャッシュがいっぱいになると、IOはかなり長い時間(数秒)ブロックされます。 他の理由は、彼らが増加している理由sched_min_granularity_nsです。私がそれを正しく理解している場合、この値を増やすとエポック(sched_latency_ns)あたりのタイムスライスの数が減り、実行中のタスクが作業を完了するためにより多くの時間を費やすことになります。これは、スレッドが非常に少ないアプリケーションでは非常に良いことですが、たとえば、多くのスレッドを含むapacheまたは他のプロセスはこれは逆効果ではないでしょうか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.