タグ付けされた質問 「load-balancing」

負荷分散は、複数のシステムを使用して高い要求に対処し、それらの複数のシステム間で負荷を分散することに関する技術を扱います。質問は、専用ハードウェアを使用するかどうかにかかわらず、ネットワークとサーバーの負荷分散を扱います。

3
MX優先サーバーの動作
これはMXプロコトールの優先順位に関する質問です。優先度の異なるMXとして2つのサーバーがある場合: MX 10サーバーA MX 20サーバーB MX 10が推奨されるプロトコルによる保証はありますか?提出者は、プライマリの可用性以外の理由でセカンダリを選択できますか? 言い換えると、私のサーバーAのMXが適切に機能していて、(理論上)無限の接続容量がある場合、誰もサーバーBへの接続を試行しないと確信できますか?

3
DNSサーバーの負荷分散:UDP / TCP
データセンターで負荷分散インフラストラクチャを再構築するように依頼されました。 元の要求は、FTPサーバーの負荷を分散することでした。現在のロードバランサー(Piranha / LVS)を使用してそれを実行しようとしましたが、起動して実行できませんでした。このソフトウェアのドキュメントがほとんどないからというだけではありません。以来Piranha非推奨とみなされ、私はに渡ったHAProxy上で費やした時間の割合で仕事をしたしようとして数日後Piranha。 そのため、FTP負荷分散(パッシブモード)を用意しています。次に、データセンターのピラニアロードバランサー全体を交換するように依頼されました。現在のピラニア構成では、いくつかのWebサーバー、IISサーバー.... aaaおよびDNSがあります。 いいえ HAProxy、これは問題ではありませんUDP load balancing。一般的に使用されているLBのようですが、処理できません。HAProxy動作が好きなので、これは残念です。それで、私はたくさんググって、いくつかのものに出くわしました。ほとんどの人はLVSDNS(TCP / UDP)のLBとして使用しているようです。一部の用途dlbDNS、一部の用途lbnamed、一部の用途netfilter / iptables。 HAProxyFTP、HTTP、IISサーバーを使い続けたいので、と並べて使用することに混乱しましたLVS。 要件: フェイルオーバーのある 2 つのLBインスタンスフェイルオーバーのある2つのDNSサーバー(すでに存在) 複数のバックエンドサーバー(http、アプリケーションなど) 質問: これは可能ですか?DNSサーバーでのUDP負荷分散は必要ですか?それを始める方法を教えてくれるリソースはありますか?または、TCP / HTTPだけでなくUDP負荷分散も処理できるLBソリューションはありますか? PS: LBソリューションは、ハードウェアではなく、オープンソース/ GPLライセンス/無料である必要があります。 助けやそれぞれのリソースにつながることは大歓迎です!

2
AWSでsftpインスタンスの負荷を分散する方法
でsftpサーバーの負荷を分散できることを知りたいですAWS。2台のサーバーがあり、各サーバーがs3fs-fuse同じサーバーをS3 bucketマウントポイントにマウントするために使用しています。私のec2インスタンスはどちらもマウントポイントに対して読み取り/書き込みを行うことができ、からはS3、両方のサーバーのファイルを表示できます。 私が探しているのは、SFTPファイルを転送しAmazon S3、ファイルを保存するために使用することです。ファイルは毎日アップロードされ、ダウンロードされます。 https://github.com/s3fs-fuse/s3fs-fuse 次のステップとして、sftpサーバーの負荷を分散する方法を知りたいので、ユーザーが特定のIPアドレスに接続すると、sftpサーバーの1つにリダイレクトされます。を調べましたがelastic load balancers、特定のポートしか許可していないようです。私も調査しましたがHAProxy、そのソリューションがどれほど安全かはわかりません。私はHIPAAコンプライアンスを考慮に入れなければなりません。ベンダーがサポートしていないため、ロードバランサーは静的IPアドレスである必要がありますDNS hostnames。

1
haproxyを使用して複数のサブドメインを単一のバックエンドに誘導する
私はhaproxyを使用して、単一のサーバーで実行されているいくつかのアプリケーションのルートを指示しています。使用中のドメインの1つには、数十のサブドメインがあり、いくつかのアプリケーションの1つに送信する必要があります。 現在、これらのサブドメインをすべて別の行にリストしています。私のフロントエンド構成は次のようになります: frontend http-in bind *:80 acl alpha hdr(host) -i alpha.com acl beta hdr(host) -i beta.com acl gamma00 hdr(host) -i apple.gamma.com acl gamma01 hdr(host) -i banana.gamma.com acl gamma02 hdr(host) -i cherry.gamma.com acl gamma03 hdr(host) -i durian.gamma.com acl gamma04 hdr(host) -i elderberry.gamma.com acl gamma05 hdr(host) -i fig.gamma.com acl gamma06 hdr(host) -i …

1
VMを介したiproute複数のADSLロードバランサー
長い間(2年?)、非常に基本的なアウトバウンドロードバランシング機能を備えた仮想マシン(Ubuntu 12.04サーバー)を実行しており、さまざまなアウトバウンド接続をさまざまなADSLルーターに送信しています。 NATマスカレードなしでiprouteを使用するだけで構成されたNATは、アウトバウンドADSLルーター自体によって管理され、接続が負荷分散ルーターVMをバイパスして送信者に直接ルーティングできるようにします。ルーターVMにはファイアウォールルール(iptables)もありません。 echo 1 > /proc/sys/net/ipv4/ip_forward # flush initially ip route flush cache # remove whatever is there for the default to begin with ip route delete default # default load balancing rule ip route add default scope global \ nexthop via ${ROUTER2} dev ${INTERFACE} weight 6 \ nexthop …

5
UDPサーバーの負荷分散
私はudpサーバーを持っています。これは私のビジネスプロセスの中心的な部分です。本番環境で期待している負荷を処理するために、サーバーのインスタンスが2つまたは3つ必要になるでしょう。サーバーはほぼ完全にステートレスであり、ほとんどの場合データを収集し、その上の層は、複数のサーバーインスタンスから発生する可能性のある最小限の古くなったデータを処理する方法を認識しています。 私の質問は、サーバー間で負荷分散を実装するにはどうすればよいですか?サーバー間でリクエストをできるだけ均等に分散したいと思います。また、忠実に再現したいと思います。つまり、クライアントXがサーバーyにルーティングされた場合、それ以降のXのすべてのリクエストはサーバーYに送られるようにします。 ちなみにそれは.NETシステムです...何をお勧めしますか? 状態はサーバー内の内部であり、何らかのトランザクションではありません。状態とは、サーバーが受信したデータからサーバーが集計するいくつかのデータであり、単純なWCF WebServiceでクエリ可能です。アプリケーションはUDPに基づいており、決定には同意しませんが、その「給与水準より上」 私は現在、MSのNLBを試していますが、問題なく動作します。箱から出して忠実に動作しますが、ネットワーク全体でノイズが発生します... DNSもありません...ああ、それは完全にコスチュームプロトコルです。

5
スパニングツリーのセットアップ
スパニングツリーの基本は理解していますが、それだけです。これが私が望むように機能するかどうか誰かが教えてくれることを願っています。 冗長性のために2つのCisco ACEロードバランサをセットアップしています。各ACEは独自のレイヤ2スイッチに接続されています。現在、各レイヤー2スイッチは、CoLoへの独自の1 Gigファイバーリンクに接続されています。各ファイバーリンクは異なるIPサブネット用にセットアップされており、CoLoはBGPの処理を提供していません。それを処理するには、独自のルーターを購入する必要があります。これは、次のプロジェクトです。 (CoLoはファイバーを提供し、ACEは銅線のみであるため、すべてのスイッチがファイバーを銅線に変更しているため、レイヤー2スイッチがあります。) そのため、ACEはスパニングツリーをサポートしていないため、現在は単一のロードバランサーしか使用できません。これで、レイヤ2はスパニングツリーをサポートするように切り替わります。デフォルトでは無効になっています。スパニングツリーを有効にし、レイヤ2スイッチを相互接続すると、すべてが期待どおりに機能しますか、それともネットワークがクラ​​ッシュしますか? これは実稼働ネットワークであり、ラボで使用するための追加のCisco ACEロードバランサーがいくつかないため、これを試す前に専門家のアドバイスを受けたいと思っています。 更新:図に含める必要があるコメントに基づいています。これが私たちが現在持っているものです。 問題は、BGPが不足しているため、現時点では2番目のISPリンクが使用できないことです。そこで、2つのネットワークスイッチを相互に接続します。2つのACEを一緒に接続すると、サークルが完成し、ネットワークの問題が発生すると言われています。したがって、問題を処理するスパニングツリーをサポートするスイッチを上部に接続できる場合。最終的には、2つのネットワークリンク上でBGPを処理するために、トップスイッチとロードバランサーの間に2つのルーターが存在します。 私は理にかなっていますか?申し訳ありませんが、これはめちゃくちゃです。SQLServerのほうがネットワーキングよりもずっと快適です。

4
IIS7要求ルーティングおよび負荷分散モジュールを使用した負荷分散
Microsoftには、IIS7向けのやや新しいロードバランシングおよびリクエストルーティングモジュールに関するドキュメントがたくさんあります。http://blogs.iis.net/bills/archive/2009/02/16/iis7-request-routing-and-load -balancing-module-released.aspxですが、実稼働環境での使用経験があるかどうか知りたいです。HAProxyなどの別のソリューションの代わりにこのモジュールを使用することについて、いくつかの長所/短所は何ですか?

1
中小規模のトラフィックサイト向けのHAProxyのハードウェア推奨事項
トラフィックの少ない一連のWebアプリケーションのロードバランサーとして使用するHAProxyの設定に興味があります。使用は増加しており、近い将来(6か月程度)に中規模になる可能性があります。一部のお客様は独自の専用サーバーを必要とするため、主に負荷分散を検討しています。一部のお客様は可能な限り低コストであるため、負荷分散装置が必要と思われます。 私はHAProxyのホームといくつかのブログを見ましたが、それらは本当に詳細には入りません、またはアプリケーションに太陽サーバーを使用している巨大なサイトです プロセッサ、メモリ、ストレージ、およびディストリビューションに関して、どのようなハードウェアとどのディストリビューションを推奨しますか、またはそのようなアプリケーションに推奨しますか? 前もって感謝します

2
Nginxプロキシを使用したスティッキーセッション
2つの異なるAWSインスタンスで実行されているアプリケーションがあり、IPに基づいて「スティッキー」または「永続的」セッションを有効にして、特定の方法でWebソケットテクノロジーを利用できるようにしたいと考えています。 ip_hashこれらのスティッキーセッションを有効にするために使用する2つの異なるセットアップがあります。 最初のセットアップでは、アプリプロセスはNginx構成と同じインスタンスで実行されています。これは機能しており、セッションは期待どおりに持続します。 upstream my_app { ip_hash; # local servers server 127.0.0.1:3001 weight=100 max_fails=5 fail_timeout=300; server 127.0.0.1:3002 weight=100 max_fails=5 fail_timeout=300; keepalive 8; } 2番目のセットアップでは、外部インスタンスをポイントして、同じ効果を達成しようとしています。この設定は機能していません。つまり、セッションはまだ負荷分散されています。 upstream my_app { ip_hash; # external servers server 111.11.11.11:3001 weight=100 max_fails=5 fail_timeout=300; server 222.22.22.22:3002 weight=100 max_fails=5 fail_timeout=300; keepalive 8; } 私はip_hash正しく使用していますか?外部サーバーに対して「スティッキー」なIPベースのセッションを有効にするにはどうすればよいですか?

2
ハードウェアロードバランサーはSNIでSSLトラフィックをルーティングできますか?
現在2つのアプリケーションをホストしているウェブサーバーファームがあります。両方のアプリケーションがすべてのサーバーで実行されています。これを分割して、アプリごとに専用のサーバーファームを用意します(これには十分な理由があります)。 ホスト名に基づいてトラフィックを適切なファームにルーティングするすべてのサーバーの前に単一のロードバランサーを配置することを望んでいましたが、WebサーバーへのSSLを維持したいと考えています。 私たちが提供しているルーターはこれをしていないようです。SNIがなければこれは不可能だと思いますが、ほとんどすべてのトラフィックでSNIインジケーターを期待しています。 現在私はプログラマーであり、ネットワークの専門家ではありませんが、新しいSSL接続要求が来たときに、ルーターがSNIヘッダーを検査して正しいファームにルーティングすることはできません。着信SSL接続が{source IP:source port}によって識別されると想定しているため、後続の着信パケットについてこれを覚えていませんか(SNIが最初のパケットにのみ存在する場合)? 私が知る限り、Haproxyはこれを行いますが、ハードウェアロードバランサーはそうではないようです。これには理由がありますか、これは私たちが推進すべきものですか? (SNIを含まないXPでIEを使用する最後の警備員の場合、古いファームにトラフィックを送信し、必要に応じて新しいファームへのプロキシを管理します)。

1
Cisco BGP不等コストロードバランシング
ネットワークにBGP不等コストロードバランシング機能を実装しようとしています。シスコのマニュアルによると(長い:http : //www.cisco.com/c/en/us/td/docs/ios/12_2s/feature/guide/fsbgplb.html、短い:https : //ccieblog.co.uk / bgp / bgp-unequal-load-cost-sharing)私はそのようなネットトポロジーを構築しました: R1-発信トラフィックの負荷分散を実装しようとしているルーター。名前の付いたVRFテーブルnatが使用されます。 R2-R4は -へのデフォルトルートと、クアッガを実行しているNATサーバーR5はと共有R1のeBGP上。 R1構成 R1 IOSバージョン: 12.2(33)SXJ4(s72033-adventerprisek9_wan-mz.122-33.SXJ4.bin) R2構成(R3 R4のみルーターIDとVLANは異なります) その結果、R1には3つの異なるデフォルトルートがあり、共有数は同じです-1/1(1:1:1)。しかし、比率1:2:3が拡張されています: R1# sh ip bgp vpnv4 vrf nat 0.0.0.0 Paths: (6 available, best #5, table nat) Multipath: eiBGP Advertised to update-groups: 2 65000 10.30.227.227 from 10.30.227.227 (10.30.227.227) Origin IGP, localpref 100, valid, …

3
複数のロードバランサーを使用してトラフィックをアプリケーションサーバーにリダイレクトすることはできますか?
ロードバランシングは初めてですが、複数のロードバランサーを使用してトラフィックをアプリケーションサーバーにリダイレクトできるかどうか疑問に思っています。どうすればいいのか分かりません。ドメイン名は、特定のサーバーのIPアドレス(この場合は1つのロードバランサーのIP)と1対1で一致する必要はありませんか?各ロードバランシングサーバーのIPが異なる場合、両方のロードバランサー(または10ロードバランサーまたは50または100)がリクエストをどのように受信できますか?

2
Apache mod_remoteipとアクセスログ
Apache 2.4以降、フロントエンドサーバー(ワニス、イカ、アパッチなど)が提供するx-forwarded-forからクライアントアドレスを書き換えるために、mod_extract_forwardedではなくmod_remoteipを使用し始めました。 これまでのところ、php、cgi、wsgiなどのモジュールですべてが正常に動作します。クライアントアドレスは本来のとおりに表示されますが、アクセスログにクライアントアドレスを書き込むことができませんでした(%a、%h、%{c } a)。運が悪い-私は常に127.0.0.1(localhost forward ex。)を取得しています。 mod_remoteipを使用しているときにクライアントのIPアドレスを記録する方法 更新:IT WORKS O_O-以下の回答を参照してください

5
TTLによる重み付きラウンドロビン-可能ですか?
私は現在、負荷分散にDNSラウンドロビンを使用しています。レコードは次のようになります(TTLは120秒です)。 ;; ANSWER SECTION: orion.2x.to. 116 IN A 80.237.201.41 orion.2x.to. 116 IN A 87.230.54.12 orion.2x.to. 116 IN A 87.230.100.10 orion.2x.to. 116 IN A 87.230.51.65 すべてのISP /デバイスがそのような応答を同じ方法で扱うわけではないことを学びました。たとえば、一部のDNSサーバーは、アドレスをランダムにローテーションするか、常に循環させます。最初のエントリを伝播するだけのものもあれば、IPアドレスを調べてどちらが最適か(地域的に近い)かを判断しようとするものもあります。 ただし、ユーザーベースが十分に大きい場合(複数のISPに分散している場合など)、バランスはかなり良好です。負荷の高いサーバーから低いサーバーへの差異は、15%を超えることはほとんどありません。 ただし、システムにサーバーを追加しているという問題があり、すべてが同じ容量であるとは限りません。 現在、1 Gbpsサーバーしかないのですが、100 Mbpsサーバーと10 Gbpsサーバーも使用したいと考えています。 したがって、私が欲しいのは、重みが100の10 Gbpsのサーバー、重みが10の1 Gbpsサーバー、および重みが1の100 Mbpsサーバーを導入することです。 以前にサーバーを2回追加して、より多くのトラフィックをそれらにもたらしました(これはうまくいきました。帯域幅はほぼ2倍になりました)。しかし、10 Gbpsサーバーを100回DNSに追加するのは少しおかしいです。 そこでTTLの使用を考えました。 サーバーAにTTLを240秒、サーバーBに120秒しか与えない場合(これは、ラウンドロビンに使用するのに最低限必要な時間です。より低いTTLが指定されている場合(多くのDNSサーバーが120に設定されているため))。私はこのようなことが理想的なシナリオで起こるべきだと思います: First 120 seconds 50% of requests get server A -> …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.