タグ付けされた質問 「iscsi」

iSCSI-SCSI over IP-ネットワーク全体にディスクをマウント

3
iSCSIストレージの調整
これは、参考として使用できるiSCSI に関する標準的な質問です。 iSCSIは、SCSIコマンドをペイロードとしてTCPネットワークパケットに入れるプロトコルです。そのため、ファイバチャネルなどとは異なる一連の問題が発生します。たとえば、リンクが混雑し、スイッチのバッファがいっぱいになった場合、デフォルトでは、イーサネットはホストに減速を指示する代わりにフレームをドロップします。これにより、再送信が発生し、ストレージトラフィックのごく一部の待ち時間が長くなります。 クライアントのオペレーティングシステムに応じて、ネットワーク設定の変更など、この問題の解決策があります。次のOSのリストでは、最適なiSCSIクライアント構成はどのように見えますか?スイッチの設定を変更する必要がありますか?ストレージはどうですか? VMWare 4および5 Windows Hyper-V 2008および2008r2 ベアメタル上のWindows 2003および2008 ベアメタル上のLinux AIX VIO あなたが偶然関連すると思う他のOS

4
ジャンボフレームが実際に機能しているかどうかのテスト
ジャンボフレームが実際に機能しているかどうかをテストするコマンドはありますか?すなわち、パケットが途中で分割されたかどうかを報告するある種の「ping」。 iSCSI経由でDell MD3000iをマウントするUbuntu VMを備えたESXiホストを使用しています。スイッチでジャンボフレームが有効になっていないため、管理者が簡単にアクセスできません。ディスクアレイをESXiホストに直接接続するオプションがありますが、ジャンボフレームが最初に問題であることを確認する方法が必要です。

2
LVステータス:利用できません。利用可能にする方法は?
iSCSIターゲットを接続し、その上に物理ボリュームとボリュームグループを作成します。 次に、LVを作成し、 mkfs.ext3 /dev/vg00/vm そしてそれはすべてうまくいきます。 その後、ターゲットを切断します iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -u 別のLinuxサーバーにログインし、そこにターゲットを接続します iscsiadm -m node -T iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 -p 192.168.0.4 -l そして私は得る: linux01:~ # lvdisplay --- Logical volume --- LV Name /dev/vg00/vm VG Name vg00 LV UUID NBNRGV-FkSR-ZNZ9-9AVk-chLQ-j5nc-RazeBw LV Write Access read/write LV Status NOT available LV Size …
27 linux  iscsi  lvm 

7
ISCSI SAN上のSQL Serverディスク設計
ログファイルとデータファイルを分離してOS(tempdb、バックアップ、およびスワップファイルも)から分離する標準的な方法です。ドライブがすべてSANベースで、LUNSが特定のディスクまたはRAIDセットに分割されていない場合、このロジックはまだ意味がありますか? -これらはSAN上のx個のドライブの一部であり、LUNは単なるスペース割り当てです

15
Windows 2008 / SQL Serverクラスタリング用の最も安価なiSCSI SAN?
ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け入れていません。 フェールオーバークラスタリングのためにWindows Server 2008 / SQL Serverで使用するのに適した運用品質のiSCSI SANはありますか? これまでのところ、私はDellのMD3000iとHPのMSA 2000(2012i)のみを見てきましたが、どちらも最小限のディスク構成で約6000ドルです。Buffalo(はい、私も知っています)には、iSCSIサポートを備えた1000ドルのデバイスがありますが、2008年のフェールオーバークラスタリングでは機能しないと彼らは言います。 実稼働環境でのフェールオーバーに適したものを探していますが、IO要件は非常に低くなっています。(クラスタリング、たとえば、30GB DB。) ソフトウェアの使用に関して:Windowsでは、StarWindが優れたソリューションを持っているようです。しかし、実際には、ハードウェアSANを購入するよりもお金がかかります。(私が理解しているように、レプリカを持つことをサポートしているのはエンタープライズ版のみであり、ライセンスあたり3000ドルです。) Linuxを使用できると考えていたので、DRBD + iSCSIターゲットのようなもので十分でしょう。ただし、フェールオーバークラスタリングにWindows 2008が必要とするSCSI-3永続予約をサポートする無料または低価格のiSCSIソフトウェアは見たことがありません。 $ 6Kはそれほど多くないことを知っています。実用的な安価なソリューションがあるかどうかを知りたいだけです。そして最後に、はい、ソフトウェアは高価ですが、多くの小規模企業はMS BizSparkを取得しているため、Windows 2008 Enterprise / SQL 2008ライセンスは完全に無料です。

3
ESXiとVNXeの間で1ギガビットiSCSIの制限を破る方法
iSCSIネットワークで大きな問題が発生しており、可能な限り高速に動作しないようです。 そのため、VMwareとEMCの専門家を巻き込んで、SANのパフォーマンスを最大限に引き出すために、ほぼすべてを試しました。 私のギアの簡単な説明:3x HP DL360 G7 / vSphere 5.5 / 4オンボードNIC / iSCSI用4 PCIe Intel NIC 2x HP 2510-24G 1x EMC VNXe 3100/2 xストレージ専用プロセッサー、2 x iSCSI専用NIC / 24x 15k SAS RAID10 / 6x 7.2k SAS RAID6 ベストプラクティスを実施し、ストレージプールを両方のiSCSIサーバーに均等に配置しました。各ストレージプロセッサに1つずつ、2つのiSCSIサーバーを作成しました。iSCSI構成の画像をご覧ください。 iSCSIトラフィックはVLANを介して分離されます(他のVLANには設定できません)。29xxシリーズの別のHPスイッチでも試してみました。フロー制御が有効になっている(無効にしようとした)が、ジャンボが無効になっています。関連するルーティングはありません。 ESXホストでは、すべてのデータストアにラウンドロビン設定を使用したため、すべてのiSCSI NICが使用されています。他の多くの人がそのようにパフォーマンスを上げているように見えるので、私はまた1 IOのパス変更ポリシーでそれを試しました。内蔵NIC(Broadcom)も試しましたが、違いはありません。スイッチでは、ESX側とVNXe側のポートが非常に均等に使用されていることがわかります。しかし、完璧な負荷分散を行っていますが、合計で1ギガビットを超えることはできません。VNXeは複数の接続用に最適化されており、ラウンドロビンにもそれが必要であることを理解していますが、2つのホストと2つのデータストア間でストレージvMotionを実行しても(異なるiSCSIサーバーを使用)、約84 MBit / s Unisphere Webインターフェイス経由。私は自分のディスクが信じられないほど正確に同じ値でその行を頻繁に見ることができます より多くを提供するか、タスクが十分に要求されていません。さらに良くなっています。各ホストと各ストレージプロセッサにケーブルが1本しかないため、同じパフォーマンスを実現できます。だから、私は多くの冗長性を手に入れましたが、余分な速度はまったくありませんでした。 iSCSIのパフォーマンスについて多くの人が話しているのを見てきたので、(VMwareおよびEMCの訓練を受けた人によってテストおよび検証された)私の構成の何が問題なのかを見つけることを切望しています。私はすべての意見に感謝しています! 編集: はい、複数のNICを使用するようにvMotionを構成しました。そのストレージに加えて、vMotionは常にvMotionアダプターではなくiSCSIアダプターを通過します。構成のスクリーンショットを添付しました。 …

7
SQL Server Files LocalまたはNASまたはSAN?
SQL Server 2008を備えた新しいサーバーをインストールする必要があります。Raid10またはNAS内のファイルを備えた1つのサーバーをお勧めしますか? iSCSIについてはどうすればいいですか? SANはどうですか? サーバーには4GbのRAMがあり、そのデータベースファイルは約2GBです。 今日、サーバーにRAIDがないことを明確にするために、何らかの戦略を実装する必要があります。何か問題が発生した場合、ファイルを安全に保管できます。ローカルファイル、NAS、SANを選択する必要があります。どのオプションが最もパフォーマンスが高く、どのオプションがより安全ですか?

1
スナップショットの削除が非常に遅い
iSCSI経由で公開されたHP LeftHandストレージを備えたESXiボックスがあります。 1TBのディスクを持つ仮想マシンがあり、そのうち800GBが消費されています。ディスクは、LeftHandストレージにシックプロビジョニングされています。 VMでスナップショットが開かれ(Veeam Backup and Recoveryが処理できるように)、約6時間開かれました。この間に約5GBのデルタディスクが作成されました。 スナップショットの削除には5時間以上かかりましたが、まだ完了していません。ストレージアレイは、そのアレイで実質的にIOPS(バックグラウンドノイズである約600)、スループットなし(バックグラウンドノイズである約8MB /秒)、平均キュー深度9を実質的に報告しています。 言い換えれば、スナップショット統合プロセスはIOバウンドではないようです。スナップショットの削除が非常に遅くなる原因は何もわかりません。それはされて差分ファイルを見て判断し、取り組んでいます。 この(比較的小さい)スナップショットを削除するのが非常に遅い理由について、他に検討すべきことはありますか? あたりとしてVMwareのマニュアル、私は見ているls -lh | grep -E "delta|flat|sesparse"今、私は変更されている2つの差分ファイルを参照してください。 -rw------- 1 root root 194.0M Jun 15 01:28 EXAMPLE-000001-delta.vmdk -rw------- 1 root root 274.0M Jun 15 01:27 EXAMPLE-000002-delta.vmdk あるスナップショットファイルが統合され、他のスナップショットファイルは統合プロセス中にデルタを収集していると推測しています。次に、新しいものが統合され、そのプロセス中に別のデルタが作成されます。 ファイルサイズは各反復(まあ、ほとんどの反復)で低下しているので、最終的にこの統合手順が完了すると思います(変更を生成せずにこれを完了するには、30分間VMをネットワークから取り外す必要があるかもしれません) 。 統合するには、デルタ100メガにつき約2分かかります。これは確かに前に起こったことはありません。通常のVeeamバックアップでのスナップショットの削除には約40分かかります(確かに高速ではありませんが、この速度ではありません)。 6時間2分後に、スナップショットは最終的に削除されます。ただし、この種の問題(ストレージのパフォーマンス以外)を通常トラブルシューティングする方法があるかどうかを引き続き知りたいと思います。

1
Linuxで接続されたターゲットを表示する方法は?
私がする時 localhost:~# iscsiadm -m discovery -t st -p 192.168.0.4 192.168.0.4:3260,1 iqn.2004-04.com.qnap:ts-509:iscsi.linux02.ba4731 192.168.0.4:3260,1 iqn.2004-04.com.qnap:ts-509:iscsi.linux01.ba4731 192.168.0.4:3260,1 iqn.2004-04.com.qnap:ts-509:iscsi.linux03.ba4731 localhost:~# 使用可能なターゲットは表示されますが、CentOS5サーバーで実際に接続されているターゲットまたはターゲットを確認するにはどうすればよいですか? 編集: もちろんこれを行うことはできますが、iscsiadm代わりにそれを教えてくれるようなプログラムはできませんか? localhost:~# ls /dev/disk/by-path/ ip-192.168.0.4:3260-iscsi-iqn.2004-04.com.qnap:ts-509:iscsi.linux02.ba4731-lun-0@ pci-0000:00:1f.2-scsi-0:0:0:0-part2@ pci-0000:00:1f.1-ide-0:0@ pci-0000:00:1f.2-scsi-0:0:0:0-part3@ pci-0000:00:1f.2-scsi-0:0:0:0@ pci-0000:00:1f.2-scsi-1:0:0:0@ pci-0000:00:1f.2-scsi-0:0:0:0-part1@ pci-0000:00:1f.2-scsi-1:0:0:0-part1@
12 linux  centos  iscsi 

6
サーバーのストレージ/バックアップ用に予備のワークステーションドライブスペースを利用する方法
だから、最も安い価格で約160GBのハードドライブしか入手できないという事実を考えると、オフィス全体に広がるワークステーションに大量の余分なドライブスペースがあることに気付きました。このスペースを、優先度の低いファイルとバックアップ用の冗長なRAIDのようなアレイとして利用したいと思います。 動作するのに40GBのディスクスペースしか必要としないワークステーションが約100台あり、パーティション分割した約120GBのスペアスペースが残っています。iSCSIなどを使用して、それらのパーティションをある種のRAIDのようなアレイにマウントする方法があるかどうか疑問に思っています。つまり、12.5TBのディスクストレージのようなもので、ワークステーションで使用されないものです(ロックされているため、ユーザーが操作することはできません)。 また、ワークステーションは常にオンになっているため、これは問題ではありませんが、システムはさまざまな理由で再起動による不定期のダウンタイムに耐える必要があります(Windows、ご存知のとおり)。 このための市販のソリューションはありますか?オープンソースはどうですか?必要がなければ自分で転がしたくない。 私のサーバー環境は、ほとんどがWindowsホストであるESX 3.5です。SQL ServerなどのワークステーションはすべてWindowsです。

1
SSDディスクと10 GbeネットワークでのiSCSIパフォーマンスの低下
iSCSIターゲット Ubuntu 14.04(Trusty Tahr)。16GB RAMと16コアCPUをLVMでサポートし、3つのSamsung SSDディスクを使用するiSCSIターゲットとして、それぞれオンボードキャッシュを備えたLSI 6 Gbit / sコントローラーを使用して65k IOPSを実行できます。 ターゲットのSSDディスクのベンチマーク: fio --filename=/dev/sdd --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=ssd-max iops=65514 どこsddハードウェアで構成されたRAID 0 3台のサムスン850 EVO SSDを使用しました。 イニシエータ 32 GB RAMと8コアCPUを搭載したUbuntu 14.04クライアントに500G LUNをエクスポートしました。 エクスポートされたLUNのベンチマーク fio --filename=/dev/sdg --direct=1 --sync=1 --rw=write --bs=4k --numjobs=10 --iodepth=1 --runtime=60 --time_based --group_reporting --name=client-max iops=2400 …
10 linux  iscsi  ssd  open-iscsi 

1
9x7ドライブraidz2(ZFS ZoL 0.8.1)のシーケンシャル速度が遅い
Ubuntu 18.04で、256K以上のリクエストサイズのシーケンシャルな読み取りと書き込み(バックアップ用)を介して構築された大きなZFSプールを実行しています。高いスループットとスペース効率の必要性、およびランダムな小ブロックパフォーマンスの必要性が少ないことを考慮して、ストライプミラーではなくストライプraidz2を使用しました。 ただし、256Kのシーケンシャルリードパフォーマンスは予想よりもはるかに低くなっています(100〜200MBps、ピークは最大600MBps)。zvolがiostatで最大99%のiowaitに達している場合、バッキングデバイスは通常10から40%のiowaitで動作します。これは、バックプレーンまたはCPUであってはならないので、ボトルネックが構成に欠けていることを示唆していますこのシステム、およびシーケンシャルワークロードは、ARCをあまり強く動作させるべきではありません。 私はモジュールパラメータ(以下の現在の構成)でかなり遊んだり、数百の記事を読んだり、OpenZFS githubの問題などを行ったりしました。プリフェッチと集約を調整すると、このパフォーマンスレベルになりました。デフォルトでは、約50MBpsで実行していました。 ZFSがディスクにTINYリクエストを送信していたため、シーケンシャルリード(約16K)。集約とプリフェッチは正常に機能していると思いますが(おそらく)、iostatのディスク読み取りは平均で約64Kです。 NICはLIO iscsiターゲットであり、cxgbitオフロード+ Windows Chelsio iscsiイニシエーターはZFS zvolsの外側で適切に機能し、直接マッピングされたオプタンがNICでほぼフルラインレートを返します(約3.5GBpsの読み取りと書き込み)。 期待しすぎですか?ZFSはパフォーマンスよりも安全性を優先することを知っていますが、7x9 raidz2が単一の9ドライブmdadm raid6よりも優れた順次読み取りを提供することを期待しています。 システムの仕様とログ/構成ファイル: Chassis: Supermicro 6047R-E1R72L HBAs: 3x 2308 IT mode (24x 6Gbps SAS channels to backplanes) CPU: 2x E5-2667v2 (8 cores @ 3.3Ghz base each) RAM: 128GB, 104GB dedicated to ARC HDDs: 65x HGST 10TB HC510 …

3
open-iscsiの書き込みが10Gイーサネット経由のSambaの2倍遅いのはなぜですか?
ローカルファイルサーバーでは、7x HDDドライブにraid-6を使用しています。 dd if=/dev/zero of=tempfile bs=1M count=2048 conv=fdatasync ローカル速度テストでは、349 MB /秒の書き込み速度が得られます。 SSDからSambaへのリモート書き込み(2Gb /秒以上の読み取り速度)では、259MB /秒の書き込みができます。しかし、iSCSIドライブ(Win10 iSCSIイニシエーター上)へのリモート書き込みでは、151 Mb /秒の書き込みしかできません。 raid6構成-128Kチャンクサイズ、stripe_cache_size =8191。書き込みインテントビットマップはSSDにあります(Samsung 860 PRO、4096Kビットマップチャンク)。 オプションでマウントされたアレイ: rw,noatime,nobarrier,commit=999,stripe=128,data=writeback open-iscsi setup:ターゲットは4Tbファイルに基づいています。 書き込み時にiSCSIがSambaより遅い理由は何か?iSCSI書き込み速度を向上させる方法に関するヒントはありますか? open-iscsiが各操作の後にディスクへの書き込みをフラッシュしたいという欲求と関係があると思います。これにより、過度のパリティ書き換えによりraid6の書き込み増幅が増加します。しかし、私はそれを修正する方法がわかりません。停電の場合は、現在書き込まれているデータの安全性よりも速度を重視してください。 余談ですが、古いietd iSCSIターゲットは(を使用してIOMode=wb)ライトバックモードを有効にすることができ 、持続的な書き込み速度ははるかに高速でした。残念ながら現在はメンテナンスされていないようです。

6
iSCSIとAoEの両方のパフォーマンスが低い
手ごろな速度のストレージを探しています。低予算のため、ソフトウェアiSCSIまたはAoEターゲットを使用することにしました。生産インフラストラクチャを変更する前に、いくつかのテストを行って、最適なテクノロジーを選択しています。 テストに使用するもの: ターゲットとしてのFujitsu Siemens RX200 S4 イニシエーターとしてのFujitsu Siemens RX200 S4 NetGearマネージド1GBitスイッチ オンボードNIC(Broadcom w / TOE)、EdiMax NIC、Broadcom NIC w / TOE-すべて1GBit ターゲットサーバーは、6 TBの2 TB WD Blue SATAドライブを備えたQLogicコントローラーを使用しています。 ターゲットとイニシエーターの両方のオペレーティングシステムがUbuntu 16.04 LTSであり、すべてのアップデートが適用されています。スイッチは保管専用です。結合とマルチパスをテストします。 私たちの問題は、読み取り速度が遅いことです。テストにはdd、40〜100 GBのファイルを使用しています。 ターゲットサーバーでのローカルの読み取りと書き込みは300 MB /秒以上です。 iSCSIまたはAoEによるサーバーへの書き込みは、200MB /秒以上であり、満足しています。 サーバーからの読み取りは常に95-99MB / sです。 私たちはietd、aoetools、LIOを試しました。2つのNICのボンドを使用しました。バランスrrとLACP、rrを使用したマルチパスです。通常およびジャンボフレームを使用。最後に、ターゲットとホスト間で直接イーサネット接続を行いました(スイッチなし)。 すべてのテストで得られる結果は同じではありません(もちろん、TOEとiSCSIなしで一般的なNICを使用すると、結果が20〜30%悪くなります)。 iperfを使用したテストネットワークでは、約200MB /秒(2GBit)の転送が見られました。bmonを使用してターゲットでNICの使用状況を監視すると、両方のデバイスの使用率が等しいことがわかりました(読み取りの場合はそれぞれ約50MB / s、書き込みの場合は約100MB / s)。 運が悪かったので、3番目のNIC(もちろん両面)を使用することにしました。結果は奇妙でした: NIC 2枚-各50MB …

1
10GbE VMware分散スイッチのiSCSI設計オプションはありますか?MPIOとLACP
データセンターで、いくつかのVMware vSphere 5.5および6.0クラスターのストレージバックエンドの拡張に取り組んでいます。私は主にVMwareエクスペリエンス全体(Solaris ZFS、Isilon、VNX、Linux ZFS)でNFSデータストアを使用しており、環境にNimble iSCSIアレイと、可能なTegile(ZFS)ハイブリッドアレイを導入する可能性があります。 現在のストレージソリューションは、Nexenta ZFSおよびLinux ZFSベースのアレイで、vSphereホストにNFSマウントを提供します。ネットワーク接続は、ストレージヘッド上の2 x 10GbE LACPトランクと各ESXiホスト上の2 x 10GbEを介して提供されます。スイッチは、MLAGピアとして構成されたデュアルArista 7050S-52トップオブラックユニットです。 vSphere側では、2 x 10GbEアップリンクのLACPボンドで構成されたvSphere Distributed Switch(vDS)と、VMポートグループ、NFS、vMotion、および管理トラフィック用のネットワークI / Oコントロール(NIOC)配分共有を使用しています。 このソリューションと設計アプローチは何年にもわたって素晴らしく機能してきましたが、iSCSIブロックストレージの追加は私にとって大きな変化です。近い将来に備えて、NFSインフラストラクチャを保持する必要があります。 物理設計を変更せずに、iSCSIをこの環境に統合する方法を理解したいと思います。ToRスイッチのMLAGは私にとって非常に重要です。 NFSベースのストレージの場合、LACPはパスの冗長性を提供する一般的に受け入れられている手段です。 iSCSIの場合、LACPは通常推奨されません。MPIOマルチパス設計が推奨されるアプローチです。 私はどこでも10GbEを使用しており、各サーバーへのシンプルな2ポートリンクを保持したいと考えています。これは、ケーブル配線と設計の簡素化のためです。 上記を踏まえ、iSCSIソリューションを最大限に活用するにはどうすればよいですか? LACP上のiSCSIを構成しますか? vDSにVMkernel iSCSIアダプターを作成し、それらを個別のアップリンクにバインドして、何らかの変異MPIOを実現しようとしますか? さらにネットワークアダプターを追加しますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.