タグ付けされた質問 「fibre-channel」

1
ファイバチャネルの長距離の問題
新鮮な目が必要です。 ファイバーチャネルと10GbEが多重化されている15kmの光ファイバー回線を使用しています(パッシブ光CWDM)。FCには、最大40 kmに適した長距離レーザーがあります(Skylane SFCxx0404F0D)。マルチプレクサは、最大の機能を実現できるSFPによって制限されます。4Gbファイバーチャネル。FCスイッチはBrocade 5000シリーズです。それぞれの波長は、FCの場合は1550、1570、1590および1610nm、10GbEの場合は1530nmです。 問題は、4GbFCファブリックがほとんどきれいにならないことです。時々、彼らは彼らの上に多くのトラフィックがあってもしばらくの間です。その後、わずかなトラフィックしかなくても、エラー(RX CRC、RXエンコーディング、RXディスパリティなど)が突然発生する可能性があります。エラーとトラフィックのグラフを添付します。現在、エラーは1Gb / sのトラフィックの場合、5分あたり50〜100エラーのオーダーです。 光学 1つのポートの電力出力を要約します(sfpshow異なるスイッチで収集されます) SITE-A単位= uW(マイクロワット)SITE-B ********************************************** FAB1 SW1 TX 1234.3 RX 49.1 SW3 1550nm(ko) RX 95.2 TX 1175.6 FAB2 SW2 TX 1422.0 RX 104.6 SW4 1610nm(ok) RX 54.3 TX 1468.4 この時点で興味があるのは、電力レベルの非対称性です。SW2は1422uWで送信し、SW4は104uWで受信しますが、SW2は54uWでのみ同様の元の電力でSW4信号を受信します。 SW1-3の場合も同様です。 とにかく、SFPのRX感度は-18dBm(ca. 20uW)まであるため、いずれにしても大丈夫です...しかし、何もありません。 一部のSFPは、製造元によって誤動作していると診断されています(上記の「ko」で示された1550nmのもの)。1610nmのものは大丈夫なようで、トラフィックジェネレーターを使用してテストされています。専用回線も複数回テストされています。すべてが許容範囲内です。私は交換を待っていますが、何らかの理由で、一見良いものもゼロエラーを発生させないので、それが物事を改善するとは思わない。 以前は、回線に信号を送信する前に、アクティブな機器(何らかの4GFCリタイマー)が関与していました。理由はわかりません。問題のためにその機器は排除されたため、現在は次のもののみがあります。 スイッチ内の長距離レーザー、 (新規)マルチプレクサへの10m LC-SCモノモードケーブル(各ファブリック用)、 専用線 同じことですが、リンクの反対側で逆になります。 FCスイッチ …


1
目を危険にさらすことなく光ファイバケーブルを確認する
保管するので、たくさんの繊維を使います。また、私は一本鎖のパッチパネルを持っているので十分に不幸ですので、誰かが私のためにパッチを適用するとき、それは通常私が保持している2本の鎖のどちらがTX(送信)であり、どれが最終的になるかは謎ですrx(受信)。カラーコードがあります:黄色のコードは「ホット」であるはずです。偶然に、半分の時間をたどっただけです。 データセンターのアクティブケーブルの大部分が目に見える無害な光を送信していることを知っています。だから、私は多くの人がどちらか一方のケーブルを見て、それが安全であることを知っているのを見てきました。問題は、非常に危険なレーザーもほとんど持っていないことです。目はもちろん、誰かの手に撃つことはお勧めしません。それらの1つは、可視波長の外側にあり、80KM離れて読むのに十分な強さです。 ライトメーターは、ストランドが点灯しているかどうかを示しますが、1つしかないため、通常は他の人が使用しています。紙や手でそれを照らすことは別のテクニックですが、私はそれを見るのに苦労しています。一部の人々が持ち歩く小さなカードを見てきましたが、私はそれを持っていないので、何かを持ち運びたくありません。週に一度だけ必要です。 特別な機器を必要とせずにケーブルに光があるかどうかを判断する最良の方法は何ですか?

2
SANをファイバーチャネルでHBAに直接接続できますか?
高可用性/共有ストレージが必要なため、私は自社初のSANの調達を進めています。ファイバーチャネルスイッチは非常に高価であり、冗長性を確保するには2つ必要で、ローエンドで約12000ドルかかることに気づきました。調査中のSAN(HP MSA 2040)には8つのファイバーチャネルポートが付属しており、合計6つ(ESXiサーバーごとに2つ* 3)しか必要ありません。 だから私の質問は: SANをサーバーHBAに直接接続して、スイッチをスキップできますか? すべてのサーバーからの直接接続を使用して、vMotionと高可用性を引き続き使用できますか?

1
ファイバーチャネルファブリック上のデバイスの正しい配置
ファイバーチャネルファブリック用の新しい8 Gbスイッチのペアを取得しています。プライマリデータセンターのポートが不足しているため、これは良いことであり、2つのデータセンター間で少なくとも1つの8Gb ISLを実行できるようになります。 2つのデータセンターは、ファイバーが走るときに約3.2 km離れています。私たちはここ数年、4Gbの安定したサービスを利用しており、8Gbも維持できることを期待しています。 私は現在、これらの新しいスイッチを受け入れるようにファブリックを再構成する方法を考えています。数年前のコスト決定により、完全に独立したダブルループファブリックは稼働していません。完全な冗長性のコストは、スイッチ障害のありそうもないダウンタイムよりも高価であると考えられていました。その決定は私の時間の前に行われ、それ以来、物事はあまり改善されていません。 この機会に、スイッチの障害(またはFabricOSのアップグレード)に備えてファブリックの回復力を高めたいと思います。 これが、レイアウトについて私が考えていることの図です。青色の項目は新しいもので、赤色の項目は(削除)される既存のリンクです。 (ソース:sysadmin1138.net) 赤い矢印の線は現在のISLスイッチリンクであり、両方のISLは同じスイッチからのものです。EVA6100は現在、ISLのある16/4スイッチの両方に接続されています。新しいスイッチにより、リモートDCに2つのスイッチを配置できるようになり、長距離ISLの1つが新しいスイッチに移動します。 これの利点は、各スイッチが別のスイッチから2ホップ以内であり、EVAレプリケーション関係にある2つのEVA4400が互いに1ホップであることです。グラフのEVA6100は古いデバイスであり、最終的にはおそらく別のEVA4400と交換される予定です。 グラフの下半分は、ほとんどのサーバーが配置されている場所であり、正確な配置についていくつか懸念があります。そこに入る必要があるもの: 10 VMWare ESX4.1ホスト EVA6100上のリソースにアクセスします 1つのフェールオーバークラスター(ファイルサーバークラスター)内の4つのWindows Server 2008サーバー EVA6100とリモートEVA4400の両方のリソースにアクセスします 2番目のフェールオーバークラスター内の2台のWindows Server 2008サーバー(Blackboardコンテンツ) EVA6100上のリソースにアクセスします 2つのMS-SQLデータベースサーバー EVA6400のリソースにアクセスし、夜間のDBエクスポートをEVA4400に送信 2つのLTO4テープドライブを備えた1つのLTO4テープライブラリ。各ドライブには独自のファイバーポートがあります。 (このリストに含まれていない)バックアップサーバーはそれらにスプールします 現時点では、ESXクラスターは、スペースのためにVMのシャットダウンを開始する必要がある前に、最大3つ、場合によっては4つのホストのダウンを許容できます。幸い、すべてでMPIOがオンになっています。 現在の4Gb ISLリンクは、私が気づいた飽和に近づいていません。これは、2つのEVA4400の複製によって変わる可能性がありますが、ISLの少なくとも1つは8Gbになります。EVA4400-Aから得られるパフォーマンスを見ると、レプリケーショントラフィックがあっても4Gbのラインを越えるのは難しいと確信しています。 4ノードのファイルサービスクラスターは、SAN1SW4に2つのノード、SAN1SW1に2つのノードを持つことができます。これにより、両方のストレージアレイが1ホップ離れます。 私がやや頭を悩ませている10個のESXノード。SAN1SW4に3つ、SAN1SW2に3つ、SAN1SW1に4つはオプションであり、レイアウトに関する他の意見を聞きたいと思います。これらのほとんどはデュアルポートFCカードを備えているため、いくつかのノードを二重に実行できます。それらのすべてではありませんが、すべてを殺すことなく単一のスイッチが失敗するのに十分です。 2つのMS-SQLボックスは、プライマリストレージに近い必要があり、db-exportパフォーマンスはそれほど重要ではないため、SAN1SW3およびSAN1SW2に配置する必要があります。 LTO4ドライブは現在、メインのストリーマーから2ホップと2ホップ上にあるので、どのように動作するかは既に知っています。これらはSW2とSW3に残すことができます。 グラフの下半分を完全に接続されたトポロジにしないでください。これにより、使用可能なポート数が66から62に減少し、SAN1SW1は25%ISLになります。しかし、それが強く推奨されている場合は、そのルートに進むことができます。 更新:おそらく役立ついくつかのパフォーマンスの数値。私はそれらを持っていました、私はそれらがこの種の問題に役立つと間隔をあけました。 上の図のEVA4400-Aは次のことを行います。 就業日中: ファイルサーバークラスターのShadowCopyスナップショット(平均約​​15〜30秒)の間に、I / Oオペレーションは平均で1000以下でスパイクは4500に急上昇します。 MB / sは通常10〜30MBの範囲にとどまり、ShadowCopies中に最大70MBおよび200MBのスパイクが発生します。 夜間(バックアップ)は、実際に速くペダルを踏むときです。 I / Oオペレーションの平均は約1500で、DBバックアップ中のスパイクは最大5500です。 MB …

2
ファイバーチャネルフレームはどのように入力され、ファブリックを通過しますか?
ファイバーチャネルフレームが実際に入力され、スイッチドファブリックを介して送信される方法に頭を抱えようとしています。I WWNN WWPNを理解します。WWNNは実際のHBAのWWNであり、WWPNはカード上の実際のポートのWWNです。したがって、HBAに4つのポートがある場合、それらはすべて同じWWNNを共有しますが、WWPNが異なります。しかし、WWNNがファブリック内の通信に関与するかどうかはまだわかりません。次に、新しいN_portノードがファブリックにログインして動的FCIDを割り当てようとするFLOGIプロセス。PLOGIが実行された後、NポートノードがそのWWPNを送信できるようになります。これにより、WWPNとFCIDの関係が維持されます。 最後に、FCアドレッシングは、ドメインID、エリアID、およびポートIDの組み合わせです。すべて8ビット。私の理解では、ファブリック内のインターフェイスの場所を見つけるために使用されているのですか?したがって、2つのスイッチドメイン1とドメイン2がある場合、0100000は最初のスイッチエリア00とポート00を意味しますか? さらに、ホストがどのように別のホストに送信するかはまだわかりません。FCフレームを見ると、24ビットFCアドレスまたはFCIDである宛先IDおよび送信元IDのフィールドがあります。私の質問は、これらのDestIDとSourceIDがホストHBAまたはFCスイッチによって入力されるのですか?ホストがそれ自体がHBAからのWWNNおよびWWPNであることを知っているだけだと思いましたか? 第2に、WWNNまたはWWPNが再生されるファイバーチャネルフレームのどこも見えません。動的FCIDを取得するためにFLOGIおよびPLOGIプロセスでのみ使用される場合を除きます。 ご協力いただきありがとうございます。感謝します。 PS Cisco MDSを使用していて、ホストのfcinfoで情報を収集していますが、各ホストでfcinfoを使用してFCIDを取得する方法がわかりません。そのため、ホストが宛先FCIDのリストを保持しているかどうかがわかりません。 また、直接接続されたホストの場合、スイッチは関与せず、ホストは相互にFLOGIしますか?

2
ファイバーチャネルLUNの再スキャンとQLogic
ファイバーチャネルを介してLinuxボックスに接続されたSANストレージアレイに深刻な問題があります。ここに設定があります: プレーンバニラLinux 2.6.27.25を搭載したDebian ファイバーコントローラーQLogic 4Gbデュアルポート(ISP2432ベース) 基本的に問題は、これを取得する方法です。FCコントローラー/ドライバーは、ストレージアレイの構成変更(新規または削除されたLUN)を正しく認識しますか? アレイに新しいLUN(通常は既存のいくつかのLUNのスナップショット)を作成し、それをHBAにマップすると、正しく認識されません。rescan-scsi-bus -l -w -r実際に何か(汎用の/ dev / sgXXデバイス)を検出しますが、ブロックデバイスはありません作成されます(/ dev / sdXX)。 LIPを発行して手動で再スキャンする場合も同様です。 エコー1> / sys / class / fc_host / host6 / issue_lip エコー "---"> / sys / class / scsi_host / host6 / scan 既存のLUNを削除すると、LIPを発行して再スキャンしたり、rescan-scsi-busを実行しても効果がありません。以前のデバイスはそのまま残り、もちろん機能しません( "file -s / dev / sdXX-> I / O …

16
安価だが高可用性の共有ストレージ?[閉まっている]
この質問が今後の訪問者を助けることはほとんどありません。これは、地理的に狭い地域、特定の瞬間、またはインターネットの世界中のオーディエンスには一般的に適用できない非常に狭い状況にのみ関連しています。この質問の適用範囲を広げる方法については、ヘルプセンターをご覧ください。 8年前に閉鎖。 私のグループは、豊富なストレージの市場にいます。従来、ビッグアイアンFC接続のSANを使用していましたが、非常に高価であり、必要以上のパフォーマンスを提供します。 可用性の高い共有ストレージが必要です。ローカルのデスクトップクラスのドライブのように動作する場合は問題ありません。 速度は遅くなりますが、ディスクが大きくなる共有ディスクソリューションはありますか? 私たちはNexSan SataBeastが好きですが、サポートをぎこちなくする完全なグローバルプレゼンスはありません(私たちはグローバル企業です)。 あなたがお勧めするこのタイプのストレージはありますか?FC接続のストレージを使用することをお勧めしますが、提案は可能です。 おかげで、 すごい。 編集:明確化の要求に答えるために、 グローバルに利用可能なハードウェアサポート 成長する能力を備えた数十TB 高可用性:一般的な障害を通じてサービスを提供する機能。 ホットプラグ可能なドライブ マルチパスIO アクティブ/アクティブコントローラ このような、費用対効果の比率が低いもの NFSのみが、HAの性質とパフォーマンスに応じてオプションになる可能性があります 価格:費用はかかりますが、できるだけ少なくします 基本的には、価格性能比の3Dグラフが現在どのように見えるのかと思います。急激な指数曲線がある場合は、それらの肘のシステムに興味があります。 以下に示すように、これは、iSCSIおよびホストレベルのソフトウェアRAID6を提供するPCレベルのハードウェアのファームによって実行できます。これは、EMCのトップエンドストレージアレイにかかる費用が多すぎることを証明しています。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.