タグ付けされた質問 「load-balancing」

負荷分散は、複数のシステムを使用して高い要求に対処し、それらの複数のシステム間で負荷を分散することに関する技術を扱います。質問は、専用ハードウェアを使用するかどうかにかかわらず、ネットワークとサーバーの負荷分散を扱います。


2
ドメインを、安定したIPを持たないロードバランサーにどのようにポイントしますか?
私はmydomain.euを、その性質上、安定したIPを持たないAWSロードバランサーに向けようとしているので、AレコードをAmazonのサブドメインに向けるべきだと思いますが、 AレコードはIPアドレスにしかなれないことがわかりますので、現時点では非常に混乱しています。 myrecord.euでは、Aレコードとwwwサブドメインの両方がloadbalancer.mydomain.aws.comを指しているゾーンファイルはどのようになりますか?

2
キャンパスネットワーク設計-ファイアウォール
キャンパスネットワークを設計していますが、設計は次のようになります。 LINXはロンドンインターネットエクスチェンジであり、JANETは共同学術ネットワークです。 私の目標は、アカデミックスタッフ、管理スタッフ、学生を含む約1万5千人をサポートする必要があるため、高可用性を備えたほぼ完全な冗長化です。私はその過程でいくつかの 文書を読みましたが、いくつかの側面についてはまだわかりません。 これをファイアウォール専用にしたいのですが、境界ルーターに埋め込まれたファイアウォールの代わりに、専用のファイアウォールを採用することを決定する原動力は何ですか?私が見ることができることから、組み込みファイアウォールには次の利点があります。 メンテナンスが簡単 より良い統合 ホップが1つ少ない 必要なスペースが少ない 安い 専用ファイアウォールには、モジュール式であるという利点があります。 他に何かありますか?私は何が欠けていますか?

3
マルチサイトの高可用性
高可用性が必要なSaaSアプリケーションがあります。高価でメンテナンスの行き届いたHyper-Vフェールオーバークラスターは既にありますが、今日、そのクラスターをホストするデータセンターでは5時間の停電が発生し、完全にオフラインになりました。そのため、2つの別々のデータセンターでサーバーを使用する方がよいのではないかと考えています。これらの2つのサイト間ですべてのバックエンドファイルレプリケーションとデータレプリケーションが機能すると仮定すると、フロントエンドルーティングの処理方法が不思議になります。単一障害点。 質問は...ロードバランサーが単一障害点にならないように、2つのホスティングサイト間でロードバランシングを設定するにはどうすればよいですか?各サイトに1つずつ、2つの個別のロードバランサーを使用する方法はありますか?ラウンドロビンDNSを検討すべきですか?

2
Linuxでの複数のISP接続の負荷分散とNAT-ing
2つの異なるISPからの2つのインターネット接続があり、2つのISP間でネットワークに出入りするトラフィックのバランスを取る必要があります。Debian GNU / Linuxを使用しています。 私のセットアップはこのようなものです- eth0 (192.168.0.0/24)-ローカルネットワーク eth1 (192.168.1.0/24)-ISP#1 eth2 (192.168.2.0/24)-ISP#2 ローカルネットワークはeth0を介してこのサーバーに接続され、ボックスはLAN内のすべてのマシンのDHCPサーバー兼ゲートウェイです。 サーバーは2つのISP間で負荷分散を行う必要があり、NATを実行する必要もあります。 lartc.orgのルーティング手順に従いましたが、NAT-ingを適切に行うための手順が必要です。 任意の助けをいただければ幸いです。 PS-pFsenseについては知っていますが、Linuxを使用する必要があります。

6
ネットワーク監視のためにSNMPトラップ(またはNetflow、汎用UDPなど)をルーティング/プロキシするソリューションですか?
非常に大規模なネットワーク(約5000台のネットワークデバイス)にネットワーク監視ソリューションを実装しています。ネットワーク上のすべてのデバイスが単一のボックスにSNMPトラップを送信し(技術的にはこれはおそらくHAペアのボックスになります)、そのボックスにSNMPトラップを実際の処理ボックスに渡すようにします。これにより、トラップを処理する複数のバックエンドボックスを使用し、それらのバックエンドボックス間で負荷を分散できます。 必要な重要な機能の1つは、トラップのソースアドレスに応じて特定のボックスにトラップを転送する機能です。これを処理する最良の方法に関する提案はありますか? 私たちが検討したものの中には: snmptrapdを使用してトラップを受け入れ、カスタム記述されたperlハンドラスクリプトに渡して、トラップを書き換えて適切な処理ボックスに送信します。 Linuxボックスで実行されている何らかの負荷分散ソフトウェアを使用してこれを処理します(UDPを処理する多くの負荷分散プログラムを見つけるのは多少困難です) 負荷分散アプライアンスの使用(F5など) LinuxボックスでIPTablesを使用して、NATでSNMPトラップをルーティングする 現在、トラップを受信するようにIPTablesが設定されたLinuxボックスを使用して最後のソリューションを実装し、テストしています。次に、トラップの送信元アドレスに応じて、パケットが送信されるように宛先nat(DNAT)で書き換えます適切なサーバー。例えば: # Range: 10.0.0.0/19 Site: abc01 Destination: foo01 iptables -t nat -A PREROUTING -p udp --dport 162 -s 10.0.0.0/19 -j DNAT --to-destination 10.1.2.3 # Range: 10.0.33.0/21 Site: abc01 Destination: foo01 iptables -t nat -A PREROUTING -p udp --dport 162 -s 10.0.33.0/21 -j DNAT …

1
Nginxを使用しないELBの背後にあるGunicornのキープアライブ設定
アプリのREST APIは、典型的な自動スケーリング/負荷分散セットアップを使用してAWS EC2インスタンスで実行されるGunicorn(Nginxの背後ではない)によって提供されます。ロードバランサーのアイドルタイムアウトは60秒で、Gunicornのキープアライブタイムアウトは2秒です。504 Gateway Timeoutこの構成から散発的な応答が見られました。Amazonのドキュメントによると、これはサーバーのキープアライブタイムアウトがロードバランサーのアイドルタイムアウト設定よりも低いためである可能性があります。 原因2:登録済みインスタンスがElastic Load Balancingへの接続を閉じています。 解決策2:EC2インスタンスでキープアライブ設定を有効にし、キープアライブタイムアウトをロードバランサーのアイドルタイムアウト設定以上に設定します。 Nginxの場合、デフォルトkeepalive_timeoutは75秒で、これはELBのデフォルト設定でうまく機能しているようです。ただし、Gunicornのドキュメントkeepaliveでは、1〜5秒の範囲の設定を推奨しています。 Gunicornのキープアライブを75秒に上げるのは理にかなっていますか?それとも、前にリバースプロキシを使用していないのに、5秒未満に保つ理由がありますか?

3
Route 53 GUIでElastic Load Balancerを指すゾーンアペックスエイリアスをどのように作成しますか?
Elastic Load Balancing開発者ガイドの説明に従って、ELB CLIを使用してドメイン名のゾーンの頂点のエイリアスを作成しました。また、ガイドには記載されていない--rr-type AAAAフラグを使用してAAAAレコードを追加しました。 AおよびAAAAレコードに対してelb-associate-route53-hosted-zoneコマンドを実行すると、Route 53 GUIが表示されます。GUIでレコードがどのように見えるかを記録し、レコードを削除し、GUIのみを使用して再作成を試みました。次のエラーが表示されます。 DNS名example.comのRRSet、タイプAには、無効なエイリアスターゲットであるホストゾーンを含むエイリアスターゲットが含まれています。 Route 53 GUIを使用してこの操作を実行したいと思います。Route 53 GUIは、Elastic Load Balancerを指すゾーンエイペックスエイリアスの作成をサポートしていますか?

3
フェイルオーバーを使用してHAProxyをセットアップする方法
HAProxy負荷分散セットアップでフェイルオーバーを取得するには、HAproxyを実行している2台のマシンが必要である(そして複数のWebサーバーインスタンスにルーティングする)ことを理解しています。しかし、この場合、abcd.comで、このトラフィックを1つではなく2つのIPアドレスに分割/ルーティングするにはどうすればよいでしょうか?DNSは通常、ドメイン名を単一のIPに解決します。無料/格安のツール/サービスを使用してこれを行うにはどうすればよいですか?

1
HAProxy-URIに基づいて別のWebサーバーに転送する
次の構成のHTTPファームがあります。 listen webfarm 10.254.23.225:80 mode http balance roundrobin cookie SERVERID insert option httpclose option forwardfor option httpchk HEAD /check.txt HTTP/1.0 server webA 10.254.23.4:80 cookie A check server webB 10.248.23.128:80 cookie B check 特定のURI(/ special)に対するすべてのリクエストを3番目のWebサーバーに転送するオプションを追加したいと思います。どうすればいいですか?

7
2つのサーバーへのWordpressのインストール-ロードバランシング
別のサーバー上の1つのデータベースを共有する2つのサーバーにワードプレス(1つのブログ、1つのドメイン、mycompany.com / blogなど)をインストールする必要があります。これら2つのサーバーはロードバランサーの背後にあり、dbは別のサーバーにあります。トラフィックが多いため、この方法を計画しています。 IIS6、7などを搭載したWindows 2003、2008で、単一のサーバーにスタンドアロンのWordPressをインストールしました 私はこれをどのように実装するかについて研究しています。 これを達成するための手順は何ですか?検索すると、定期的に同期されるwp-content / uploadsディレクトリに関する投稿を見ましたか? 読んでくれてありがとう 我々のしたこと : a)sanクラスタに接続された2つのWebサーバーがありますb)sanにブログディレクトリを作成しましたc)そのブログディレクトリを両方のWebサーバーの仮想ディレクトリとしてマップしましたd)いずれか1つにwordpressをインストールしました(ドメインおよびIIS仮想として)ディレクトリは両方のサーバーで同じです-たとえばwww.abc.com)e)このブログのデータベースは2つのMySQLボックスにあります Wordpressがsanの上に座っているので、アップロードやそのようなものと競合しないため、Blog urlはwww.abc.com/blogであり、それが両方で設定されています。 それが誰かを助けることを願っています!

2
Amazon ELBは負荷を分散するためにどのアルゴリズムを使用しますか?
これは公式のELBドキュメントで見つけました デフォルトでは、ロードバランサーは各リクエストを最小の負荷でアプリケーションインスタンスに個別にルーティングします。 しかし、Newvemの記事では、ELBはラウンドロビンアルゴリズムのみをサポートしていると述べています Amazon ELBでサポートされるアルゴリズム -現在、Amazon ELBはラウンドロビン(RR)およびセッションスティッキーアルゴリズムのみをサポートしています。 それでどちらですか? [1] http://docs.aws.amazon.com/ElasticLoadBalancing/latest/DeveloperGuide/US_StickySessions.html [2] http://www.newvem.com/dissecting-amazon-elastic-load-balancer-elb-18-facts-you-should-know/?lead_source=popup_ebook&oid=00DD0000000lsYR&email=muneeb%40olacabs.com

3
負荷分散なしのnginxフェールオーバー
nginxの設定に問題があります。 私はnignxをリバースプロキシとして使用しています。すべてのリクエストを最初のサーバーに送信したい。最初のサーバーがダウンした場合、2番目のサーバーにリクエストを送信します。 要するに、負荷分散なしでフェールオーバーソリューションを使用するにはどうすればよいですか?


8
Apacheを予算内で負荷分散しますか?
何百万人ものユーザーに途方もない速度を提供するための負荷分散ではなく、物事がうまくいかないときにユーザーを幸せに保つために、可用性と冗長性を確保する負荷分散の概念を理解しようとしています。 私たちは予算に余裕があり、十分な知識があるものに固執しようとしているので、Ubuntu VPSでApacheを実行することは、有名な検索エンジンが私たちを獲得するまでの戦略のようです(土曜日の皮肉が含まれています、注意してください)。 少なくとも私にとっては、利用可能なさまざまなソリューションの完全なジャングルです。Apacheが所有するmod_proxyとHAproxyは、Googleのクイック検索で見つけた2つですが、負荷分散の経験がゼロであるため、私たちの状況に適切なもの、または解決するソリューションを選択する際に何を検討するのかわかりません可用性の問題。 私たちにとって最良の選択肢は何ですか?予算内で高い可用性を実現するにはどうすればよいですか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.