タグ付けされた質問 「performance」

サーバーのハードウェアとソフトウェアのパフォーマンス、またはネットワークのパフォーマンスに関する質問。

2
Azure App ServiceのCPU使用率が100%になる原因を特定するにはどうすればよいですか?
私は、Azure App Serviceプランに5つのアプリを持っています。異なるクライアント向けの同じアプリのすべての異なるコピーです。これは、SQLデータベースを備えたASP.NET MVCアプリです。 今朝、目が覚めたのは遅い、応答しないサイトで、503エラーが時々発生しました。App ServiceプランのCPU /メモリメトリックを確認したところ、CPUが100%に固定されていることがわかりました。 また、個々のサイトのCPU時間のグラフは、すべてが同時にオフになっていることを示していますが、他のサイトよりも悪いものもあります。 Advanced Application Restartを実行して問題を解決しようとしましたが、ブレードがロードされませんでした。これは、サーバーが応答できなかった情報を取得しようとしたためと考えられます。 最後に、各サイトを1つずつ停止して、CPUをゼロに戻した後、それらを再び起動しましたが、これで問題は解決されたようですが、今ではいくつかのサイトが上昇を始めています。 私は数週間前に同様の問題を経験し、自分のアプリプランに対して大きくなりすぎていると想定していたため、S1からS2にアップグレードしましたが、今日まで問題ありませんでした。 このCPUに飢えた動作の原因が何であるかを理解する方法について、私は完全に困惑しています。誰かが私にこれを診断し始める方法の正しい方向を教えてもらえますか?

8
小さなファイルのNFS転送パフォーマンスが遅い
RAID 1 + 0を使用してHP ML370 G5、SmartアレイP400、SASディスクを組み合わせてOpenfiler 2.3を使用しています。 OpenfilerのWebベースの構成を使用してext3パーティションからNFS共有をセットアップし、別のホストから共有をマウントすることに成功しました。両方のホストは、専用のギガビットリンクを使用して接続されます。 を使用した簡単なベンチマークdd: $ dd if=/dev/zero of=outfile bs=1000 count=2000000 2000000+0 records in 2000000+0 records out 2000000000 bytes (2.0 GB) copied, 34.4737 s, 58.0 MB/s 中程度の転送速度(58.0 MB /秒)を達成できると思います。 しかし、合計サイズが300 MB未満の小さなファイル(.phpおよび.jpgファイルあたり約1〜4 kB)を多く含むディレクトリをコピーすると、cpプロセスは約10分で終了します。 上記のような小さなファイル転送にはNFSは適していませんか?または、調整が必要なパラメータはありますか?
12 performance  nfs 

2
IOPSに対するRAIDレベルの影響[終了]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 2年前に閉店。 IOPSに関して、特定のディスク数のIOPSが1つのディスクのIOPSにディスク数を掛けたものであることを示唆するいくつかのソースをWebで見ました。 IOPSについての私の理解が正しい場合(そしてそれがまったく確かでない場合)、現実は-他の多くの要因の中でも-RAIDレベルに依存すると考えていたでしょう。RAID 1/10では、すべてのデータが少なくとも2つのディスクに複製されるため、特定のIOパターンで特定のディスク上の競合が減少します。ただし、RAID 0/5/6などのストライプ化されたRAIDレベルでは、データは複製されるのではなく分散されるため、連続した読み取り要求が同じスピンドルに対して行われ、以前のIOが完了するまでブロックされます。書き込みはさらに競合します。 さまざまな最適化やその他の要因により、現実がはるかに複雑であることに感謝します。私の質問は、非常に基本的なレベルで、IOPSが何を意味するかについての私の理解が正しい軌道に乗っているかどうかだけを追及しています。IOPSがRAIDレベルによってこのような方法で影響を受ける可能性があるという私の主張は、この概念の基本的な誤解を示している可能性があります。

2
ZFSがext4やbtrfsよりもずっと遅いのはなぜですか?
問題 最近、新しいディスクをインストールし、その上にzpoolを作成しました。 /# zpool create morez /dev/sdb しばらく使用した後、かなり遅いことに気付きました。 /morez# fio --name rw --rw rw --size 10G read: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) write: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) このテストは、実際の使用例とかなり似ています。ディスクから適度な数(〜10k)の画像(それぞれ〜2 MiB)を読み取っています。ディスクがほとんど空のときにそれらは一度にすべて書き込まれたので、断片化されるとは思わない。 比較のために、ext4をテストしました。 /# gdisk /dev/sdb ... /# mkfs.ext4 -f /dev/sdb1 && mount /dev/sdb1 /mnt && cd /mnt /mnt# fio --name rw --rw rw --size 10G …

1
IISサーバーのメモリが多すぎますか?
Exchange(link)とElasticsearch(link)が「多すぎる」メモリに苦しむ可能性があるという主張がいくつかあるようです。古い本で、IISについても同じことが言えるかもしれないという漠然としたヒントも読みました。 少なくともある程度は、より[RAM]になります。RAMが多すぎる場合、IISファイルキャッシュはそれを完全に使用できません。したがって、標準のWebサーバーでは2GBから3GBのRAMを超えない方が良い場合があります。 IISサーバーに大量のRAMが搭載されている可能性があるという主張を誰でも確認または反論できますか? 主張が正しい場合、構成を微調整する問題ですか? 私が質問する理由は、実稼働環境とテスト環境でパフォーマンスの問題が発生する可能性があるためです。テスト環境は、負荷が大きい場合でも、64GBの実稼働環境よりも16GBのRAMで優れたパフォーマンスを発揮します。Windows Server 2012 R2 64ビットでIIS 8を実行しています。 (私が見つけた唯一のServerFaultの質問は、IISを具体的に扱っていません。)

1
FileZillaがPSFTPよりもずっと速いのはなぜですか?
FileZilla 3.10.3およびPSFTP 0.63(PuTTY)を使用しています。なぜ私が得るスループットが2つのクライアント間で劇的に異なるのかを誰でも教えてくれますか?FileZilla(およびWinSCP)が非常に高速であるため、SFTPプロトコルの欠点だけではありません。前もって感謝します。 FileZillaを使用して、何らかのプロトコルを使用して同じサーバーに接続すると、「良好な」スループットが得られます。1つの大きなファイルにつき約1.2MBPS。ログは次のとおりです。 Response: fzSftp started, protocol_version=2 Command: open "mecorp@ftp.themcorp.com" 22 Trace: Looking up host "ftp.themcorp.com" Trace: Connecting to 222.22.111.33 port 22 Trace: We claim version: SSH-2.0-PuTTY_Local:_Mar_29_2015_12:25:15 Trace: Server version: SSH-2.0-9.99 sshlib: 8.1.0.0 Trace: Using SSH protocol version 2 Trace: Doing Diffie-Hellman group exchange Trace: Doing Diffie-Hellman key exchange …

2
300Mbit(14%)での極端なUDPパケット損失、ただし再送信なしのTCP> 800Mbit
iperf3クライアントとして使用するLinuxボックスがあり、2台の同じ装備のWindows 2012 R2サーバーボックスとBroadcom BCM5721、1Gbアダプターをテストしています(2つのポート、ただしテストに使用したのは1つだけです)。すべてのマシンは、単一の1Gbスイッチを介して接続されます。 300MbitなどでのUDPのテスト iperf3 -uZVc 192.168.30.161 -b300m -t5 --get-server-output -l8192 送信されたすべてのパケットの14%が失われます(まったく同じハードウェアを備えた他のサーバーボックスの場合、古いNICドライバーの場合、損失は約2%です)が、それほど深刻ではありませんが、50Mbitでも損失が発生します。同等の設定を使用したTCPパフォーマンス: iperf3 -ZVc 192.168.30.161 -t5 --get-server-output -l8192 報告された再送信なしで800Mbitの北の伝送速度をもたらします。 サーバーは常に次のオプションを使用して起動されます。 iperf3 -sB192.168.30.161 誰のせいですか? Linuxクライアントボックス(ハードウェア?ドライバー?設定?)? 編集: Windowsサーバーボックス間でテストを実行したところ、300MbitのUDPパケット損失はさらに大きく、22%でした Windowsサーバーボックス(ハードウェア?ドライバー?設定?)? すべてのテストマシンを接続する(単一の)スイッチですか? ケーブル? 編集: 今、私は別の方向を試してみました:Windows-> Linux。結果:パケット損失は常に0ですが、スループットは約で最大になります 840Mbit -l8192、つまりフラグメント化されたIPパケット 250Mbit for -l1472、断片化されていないIPパケット フロー制御はスループットを制限し、パケット損失を防ぐと思います。特に後者の、断片化されていない数値はTCPスループットに近いところにありません(断片化されていないTCPは断片化されたTCPと同様の数値をもたらします)が、パケット損失の点でLinux-> Windowsをはるかに上回る改善です。 そして、どうやって見つけるのですか? サーバーのドライバー設定に関する通常のアドバイスに従ってパフォーマンスを最大化し、有効化/無効化/最大化/最小化/変更を試みました 割り込みモデレーション フロー制御 受信バッファー RSS ウェイクオンLAN すべてのオフロード機能が有効になっています。 編集私も有効/無効にしようとしました イーサネット@ワイヤスピード …

2
IISの未使用のアプリケーションプールはパフォーマンスに影響しますか?
アーキテクチャが大幅に更新されたため、IISの下に未使用のアプリケーションプールがいくつかあります(それらにマップされているWebサイトはありません)。 読みやすさを向上させるためだけにそれらを削除することをお勧めしますが、私の質問はパフォーマンスへの影響に関するものです:これらの未使用のアプリケーションプールは、メモリ、CPU、IIS要求処理速度、またはその他のパフォーマンスメトリックの観点から重要ですか? 私が見ることができることから、Webサイトのないアプリケーションプールはワーカープロセスを作成しないので、パフォーマンスに違いはないと思いますが、私は何かを見逃していないことを確認したいです。

3
何百万ものハードリンクでファイルシステムをミラーリングする方法は?
現時点で1つの大きな問題があります。顧客の1人のファイルシステムをミラーリングする必要があります。それは通常、実際には問題ではありませんが、次のとおりです。 このファイルシステムには、数百万のハードリンクを持つフォルダーが1つあります(はい!数百万!)。rsyncファイルリストを作成するには4日以上かかります。 次のrsyncオプションを使用します。 rsync -Havz --progress serverA:/data/cms /data/ 誰もこのrsyncを高速化する方法、または代替手段を使用する方法を考えていますか?ddターゲットディスクはソースより小さいため、使用できませんでした。 UPDATE: オリジナルのファイルシステムがあるのでext3、我々がしようとしますdumpとrestore。更新します

3
使用するKVMディスクの種類
いくつかのKVM仮想ゲストをセットアップしており、使用するディスクタイプを議論しています。私は、それぞれの長所と短所を駆使する優れたリソースをオンラインで見つけることができませんでした。 異なるディスクタイプとそれぞれの長所と短所のリストを作成するのを手伝ってもらえますか?私が知っているディスクの種類は次のとおりです。 生画像 qcow2 専用パーティション(LVMなど) 私はこれらの基準に興味があります: セットアップの容易さ(各タイプの作成はどれくらい簡単ですか) 性能 クローニングのしやすさ 拡張のしやすさ(より大きくするため、仮想ゲストのディスク容量が増える) そのディスクタイプに固有の機能 バックアップのしやすさ 他のホストへの移行 選択肢の評価を手伝ってもらえますか?

3
ディスク速度はどのように測定され、何が高速ですか?1500 GBのコピーに必要な時間は?
ディスク速度はどのように測定されますか?MbitまたはMbyte per second readですか?今日の平均は何で、業界では何が高速で、何が非常に高速ですか? 1500 GBのファイル(データベースファイルなど)のコピーを作成するのに時間がかかる、プロのシステムにかかる時間、ハードディスクの速度を考慮して計算する方法を誰かが言うとしましょう?

4
WANリンクのパフォーマンステストの方法論
約200マイル離れた場所間に、新しく多様にルーティングされた1 Gbpsイーサネットリンクのペアがあります。「クライアント」は新しい適度に強力なマシン(HP DL380 G6、デュアルE56xx Xeons、48GB DDR3、300GB 10krpm SASディスクのR1ペア、W2K8R2-x64)であり、「サーバー」もまともなマシンです(HP BL460c G6 、デュアルE55xx Xeon、72GB、146GB 10krpm SASディスクのR1ペア、デュアルCisco MDS9509にリンクされたデュアルポートEmulex 4Gbps FC HBA、次に128 x 450GB 15krpm FCディスクを備えた専用HP EVA 8400、RHEL 5.3-x64)。 クライアントからSFTPを使用すると、大きな(> 2GB)ファイルを使用した場合のスループットは約40Kbpsしかありません。サーバーから「他のローカルサーバー」テストを実行し、ローカルスイッチ(Cat 6509)で約500 Mbpsを確認しました。クライアント側でも同じことを行いますが、それは1日かそこらです。 問題がリンクプロバイダーにあることをリンクプロバイダーに証明するために、他にどのテスト方法を使用しますか?

5
EC2の読み取りアクセスの方が高速です。ローカルドライブまたはEBS?
EC2インスタンスでの読み取りアクセスの方が高速です。「ローカル」ドライブまたは接続されたEBSボリューム? 永続化する必要のあるデータがあるため、これをEBSボリュームに配置しました。OpenSolarisを使用しているため、このボリュームはZFSプールとして接続されています。ただし、未使用になるEC2ディスクスペースの大部分があるため、これをZFSキャッシュボリュームとして再利用することを検討していますが、ディスクアクセスが潜在的に有害な影響がある可能性があるため、EBSボリュームのもの。

6
キャパシティプランニングのための正確なトレンドのランダムI / Oパフォーマンス
私が働いている場所には、Xen Hypervisorを使用して多くの仮想マシンをホストするために使用される多数の「ビッグアイアン」サーバーがあります。これらは通常、32GB RAM、デュアルクアッドコアプロセス、および大量のI / O容量を持つ高速ディスクで構成されます。 私たちは、既存のハードウェア構成が歯の中で少し長くなりつつあり、外に出て、より大きく、より速く、より光沢のある新しいハードウェアを調達する時が来ました。 前述のように、既存のキットは32GB RAMで展開されており、ホストに展開できるVMの数を事実上制限しています。 ただし、新しいハードウェアの調査では、単一のシャーシ内に64、72、または96GBのRAMを搭載した単一のマシン内でより多くのRAMを取得できることは明らかです。明らかに、これにより、指定されたホストにより多くのマシンを追加することができ、常に勝ちです。これまでに完了した分析は、制限要因がディスクサブシステムにシフトされることを示唆しています。 問題は、現在、どこにいるかを把握しようとしていることです...使用法のおかげで、I / O帯域幅、つまり、ランダムなI / O操作は完了できます。このポイントに達すると、iowaitは空ロケットになり、マシンのパフォーマンス全体が犬に行きます。 これは私が尋ねている質問の核心です、特に完了しているランダムI / O操作の数に関連して、既存のI / Oパフォーマンスを正確に追跡/追跡する方法を知っている人はいますか? 私が実際にメトリックを取得しようとしているのは、「この構成はX個のランダムI / O要求を正常に処理でき、現在(平均して)Z個の操作のピークでY個の操作を実行しています」です。 前もって感謝します!

6
Prelinkを使用することにもう意味はありますか?
何年もの間、さまざまなLinuxボックスを使用して、アプリケーションのロード時間を短縮するためにprelinkを儀式的に使用する習慣になりました。 ただし、prelinkを実行することの利点は、パッケージを再インストールするたびに無効になります。そのため、すべての依存関係と依存関係を再リンクする必要があります。 この事前リンクは複数の問題を引き起こす可能性があり、そのようなものとしてバイナリMD5無効化があります。これは、MD5とアップストリームリビジョンを比較したり、バイナリが変更されたためパッケージ削除時にクリーンアップしたくないかどうかを判断するためにMD5を使用するものに問題があります。 最近、コンピューターの処理速度が大幅に向上し、プリリンクがもたらす利点はほとんど目立ちません。 プレリンクを使用することは依然として合理的な概念ですか、それとも過去の時代の何かとして何気なく捨てて取り残されますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.