iSCSIおよびNFS over 1GBイーサネットの「適切な」速度とは何ですか?


9

2つのZFSファイルシステムを共有するOpenSolarisボックスがあります。1つは、VMwareサーバーを実行しているCentOSボックスへのNFS接続です(ディスクイメージはZFSに保存されます)。もう1つは、Windows 2008サーバーへのiSCSI接続で、ZFSの上にNTFSフォーマットが設定されています。どちらの接続もgig-Eを介して直接行われます(スイッチなし)。

ボックスを監視するためにmuninを実行していますが、どのような数値を期待するべきかわかりません。誰かが私と比較するためのいくつかのベースライン番号を与えたり、チューニングを開始する場所について何か提案をすることはできますか?

ここに私が見ているNFS統計があります、solarisボックスでmuninを修正したらiSCSIを投稿します:P

インターフェース

NFSクライアント


どのユニットをお探しですか?KBPS?IO /秒?
WerkkreW 2009年

どこから始めればいいのかさえわかりません。私はmuninからの統計で投稿を更新しました。見るのにもっと良い場所があるかどうか教えてください。
Sysadminicus

回答:


12

結合されたGigEとiSCSIを介したSun X4100書き込みをSun X4500に280MB / sにプッシュしました。

SolarisでTCPスタックを調整して多くのことを支援するためにできることがたくさんあります。これは私の私の在庫調整構成です。(Sunホワイトペーパーのいくつかのコレクションから取得):

$ cat /etc/rc3.d/S99ndd
#!/bin/bash

NDD=/usr/sbin/ndd

$NDD -set /dev/tcp tcp_xmit_hiwat 1048576
$NDD -set /dev/tcp tcp_recv_hiwat 8388608
$NDD -set /dev/tcp tcp_max_buf 8388608
$NDD -set /dev/udp udp_xmit_hiwat 1048576
$NDD -set /dev/udp udp_recv_hiwat 8388608
$NDD -set /dev/udp udp_max_buf 8388608
$NDD -set /dev/tcp tcp_conn_req_max_q 65536
$NDD -set /dev/tcp tcp_conn_req_max_q0 65536
$NDD -set /dev/tcp tcp_fin_wait_2_flush_interval 67500

また、OpenSolarisマシンを調べる価値があるのは、fsflush間隔の変更、割り込み調整の「マジック」、ソフトリングの無効化です。以下を/ etc / systemに追加します(再起動が必要です):

* "fsflush" tuning
set tune_t_fsflushr = 5
set autoup = 300
* Disable the Automatic Interrupt Adjustment
set dld:dld_opt = 2
* Disable "soft rings"
set ip:ip_squeue_fanout = 0
set ip:ip_soft_rings_cnt = 0

言及する価値があることは、OpenSolarisではなく、Solaris 10でこれを行うことですが、調整パラメータは同じように機能するはずです。

私はFilebenchの大ファンで、チューニングオプションをいじったり、スループットテストを行ったりしています。

(最近名前が変更された)OpenSolaris 2009.06リリースは、iSCSIおよびZFSの世界で非常にエキサイティングなようです。

これが一部に役立つことを願っています!



1

単一のddまたはbonnie ++(生の速度、線形書き込み)の場合は、ワイヤ速度にかなり近づく必要があります。

しかし、ボトルネックはディスクアレイになり、複数のVMのランダムなIO負荷を取得し始めると、トランスポートよりもはるかに多くなります。

また、大量のRAMを備えたバッテリバックアップ式書き込みキャッシュがない場合、他のIOで大量の書き込みを開始するとすぐに、パフォーマンスが低下します。


0

1GBのリンクで、iSCSI経由でデータを約200メガビット/秒にプッシュできました。しかし、私はEMC CX4-240によってホストされた14ディスクRAID 6を使用していましたが、当時はあまりキャッシュを使用していませんでした。

最大のボトルネックはおそらく、コントローラーキャッシュの量とディスクの速度(キャッシュがいっぱいになった場合)です。


1
12台のディスクすべてを同じコントローラーに配置することにより、計画段階で失敗しました。それらを別のコントローラー間で分割することは、私たちにとって簡単な速度の勝利になると思います。
Sysadminicus

それは、ボトルネックがどこにあるかによります。RAID 6はすべて1つのシェルフ内にあるため、1つのコントローラーです。しかし、それはハードウェアのかなり高級な部分にあります。ボトルネックはどこですか?コントローラーにキャッシュを追加するか、書き込みキャッシュとしてより高い割合のキャッシュを割り当てる必要がある場合があります。
mrdenny 2009年

私は同様の設定をしています(ただしAX4-5を使用しています)。iSCSIは使用していませんが、SAN上の2台のマシン間で暗号化されていないプロトコルを使用して非常に高速な転送を取得しました。良いSAN最適化ドキュメントを知っていればいいのですが。
Matt Simmons、

0

1Gイーサネット上のISCSI経由でWindowsサーバーに約80 MB / Sを取得します。ターゲット:KernSafe iStorageサーバーhttp://www.kernsafe.com/Product.aspx?id=5 イニシエーター:Microsoftイニシエーターwww.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825&displaylang= en

Hardisk:ATA 7200


0

(プロではなく)準プロの終わりに近い方のために、W2012サーバーから150MBの読み取り、120MBの書き込みを一定で一貫して取得しています。draytekマネージドスイッチを介してチーム化されたデュアル1GB NICは、RJ45銅線を介してblackarmorsnasに20GBファイルを1回転送します。テスト中、他の同時操作はありません。これを達成するために、私はジャンボフレーム9k、rx&txフロー、つまりすべての通常のドライバー最適化を使用していますが、物事をオンにしてジャンボフレームを最大に上げる以外の微調整はありません。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.