Ubuntuサーバー10.04を実行する94.6GiB RAMの24コアマシンがあります。同じタイプと同じ量のプロセスを実行している別のサーバー(4コア)とは異なり、ボックスでは高い%iowaitが発生しています。両方のマシンはVNX Raidファイルサーバーに接続され、24コアマシンは4つのFCカードを介して接続され、もう1つは2つのギガビットイーサネットカードを介して接続されます。4コアマシンは現在24コアマシンよりも優れており、CPU使用率が高く、%iowaitが低くなっています。
9日間の稼働時間では、%iowaitの平均は16%で、通常30%を超えています。ほとんどの場合、CPU使用率は非常に低く、約5%です(iowaitが高いため)。十分な空きメモリがあります。
私が理解していないことの1つは、すべてのデータがデータムーバーを直接通過するのではなく、デバイスsdcを通過しているように見える理由です。
avg-cpu: %user %nice %system %iowait %steal %idle
6.11 0.39 0.75 16.01 0.00 76.74
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 0.00 0.00 0.00 1232 0
sdb 0.00 0.00 0.00 2960 0
sdc 1.53 43.71 44.54 36726612 37425026
dm-0 0.43 27.69 0.32 23269498 268696
dm-1 1.00 1.86 7.74 1566234 6500432
dm-2 0.96 1.72 5.97 1442482 5014376
dm-3 0.49 9.57 0.18 8040490 153272
dm-4 0.00 0.00 0.00 1794 24
dm-5 0.00 0.00 0.00 296 0
もう1つのパズルのピースは、おそらくioホールドアップが原因で、タスクが中断できないスリープモード(上部)に頻繁に移行することです。
問題の診断に役立つ情報は何ですか?すべてのデータが/ dev / sdcを通過するのはなぜですか?それは正常ですか?
更新:
ネットワーク接続とVNXの読み取り/書き込み容量は、ボトルネックとして除外されています。4つの結合NIC(ラウンドロビン)で800MB /秒の速度に到達できます。ファイバーチャネルカードはまだ使用されていません。VNXはIOを適切に処理できます(RAID6、2つのプールのプールごとに30x2TB 7.2kRPMディスク(合計60ディスク)、約60%の読み取り)。
上記のdmとsdcは無視してください。これらはすべて内部ディスクであり、問題の一部ではありません。
問題はnfsマウントまたはTCP(VNXの5つのパーティションに5つのマウントがある)にあると考えられますが、正確にはわかりません。何かアドバイス?
dm
は、データムーバーではなく、デバイスマッパーを表します。この質問は、おそらくサーバーフォールトではるかに優れています。