タグ付けされた質問 「load-balancing」

負荷分散は、複数のシステムを使用して高い要求に対処し、それらの複数のシステム間で負荷を分散することに関する技術を扱います。質問は、専用ハードウェアを使用するかどうかにかかわらず、ネットワークとサーバーの負荷分散を扱います。

6
HAProxyのWindows代替
ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け付けていません。 すでに投稿されているこれと同様の質問があるようには見えないので、先に進みます。 私は、2〜4台のサーバーがバックエンドWebサービスへの着信要求を処理することで利益を得られるプロジェクトに取り組んでいます。このサービスはSSLを必要としませんが、場合によっては長時間実行されるプロセス(最大120秒)をサポートする必要があります。 このプロジェクトには現在、ハードウェア負荷分散ソリューションを購入するための資金がありません。 以前にHAProxyをこのソリューションとして使用しましたが、非常にシンプルでわかりやすいことがわかりました。同様の構成オプションを提供し、軽量サービスとして実行されるWindows(サーバー2003または2008)用の類似製品はありますか? 制御できない理由により、Linuxマシン(物理または仮想)をセットアップできないため、Windowsマシンに展開できる動作を探しています。 私はこのカテゴリーに分類されるPerlbalのみを見つけることができます。したがって、これを無制限に開いたままにしないために、唯一の答えを評価します。

3
ロードバランサーとのスティッキーセッションのマイナス面は何ですか?
IIS7マシンのWebファームがあり、非常にうまく機能しています。それらの前にF5 Big-IPハードウェアロードバランサーがあり、これも正常に動作しています:) (ソース:www.f5.com) 現在ASP.NET State Service、OutProc状態を処理するためにを使用しています。これは、あらゆるタイプのセッション情報を保持するWebファームがある場合に必要です。 F5 Big-IPでスティッキーセッションを行うことができ、したがってOutProcからInProcに戻すことができるかどうか疑問に思っていました。もしそうなら、これの欠点は何ですか?InProcとOutProcの欠点を知っているので、それを説明することを心配しないでください。F5 Big-IPを使用したスティッキーセッションの長所/短所にもっと興味があります。 誰もが光や経験を流すことができますか?

2
サーバーがダウンしている場合のみHAProxyスイッチ
SAとSBの2つのサーバーがあるとします。次のように動作するようにHAProxyを構成することは可能ですか? すべての接続がSAになります-> SAがダウンします-> HAProxyはSBにすべての接続を切り替えます-> SBがダウンしなくなるまで、SAに接続します。 。 簡単に言うと、現在のサーバーがダウンした場合にのみHAProxyを切り替えたいと思います。たぶん、HAProxy以外のsthを使用する必要がありますか?

3
ロードバランサーの背後でngnixを使用してhttpをhttpsに書き換えます
管理パネル内でsslキー/ pemを設定できるRackspaceロードバランサーを使用しています。すべて正常に動作し、httpとhttpsの両方のプロトコルを使用できます。しかし、私が使用してhttpをhttpsにリダイレクトしようとすると: server{ listen *:80; server_name mydomain.com www.mydomain.com; rewrite ^ https://mydomain.com$request_uri? permanent; ...リダイレクトループが発生します。私はポート443をリッスンしていないことに気づきましたが、それはロードバランサーが処理してくれたためです。また、書き直しをif ($scheme ~* http){無効にしてみました。 私の質問の他の部分は、URLからwwwを削除したいということです。これを1回の書き換えで実行できますか?上記のリライトもこれを処理するべきではありませんか? ご協力いただきありがとうございます!

5
使用率の高いASP.NETアプリケーション用にSQL Server 2008の負荷を分散する方法は?
ASP.NETとIIS 7を使用する成功したWebアプリケーションがあると想像してください。SQLServer 2008データベースへの多くの呼び出しを生成し、99.9%のアップタイム(8時間のダウンタイム、年)。 私たちの目標は: お客様にダウンタイムを引き起こすことなく、サーバーにWindows Updateをインストールします タイムアウトのためにサーバー上のハードウェアクラッシュがASP.NETアプリケーションの速度を低下させないようにする ASP.NETアプリケーションの負荷分散とは異なり、SQLの負荷分散ははるかに難しいようです。Microsoftスタックを使用するMicro-ISV用に、単純な負荷分散されたSQL Server 2008 R2クラスターをセットアップするためのベストプラクティスは何ですか?

7
N Apacheサーバー間で着信Webトラフィックのバランスをとるにはどうすればよいですか?
Heartbeat / Squid / Varnish / etcのようなものを使用して、内部Apacheインスタンス間で着信トラフィックの量のバランスを取りたいと考えています。私のものはすべてVPSで実行されるので、これはハードウェアではなくソフトウェアでなければなりません。この分野での経験はあまりないので、用語を誤用して間違ったパッケージを選択しているとすみません。 私は自分が何を求めているかを説明するために何かを作成しました。緑の側は初期設定の外観であり、青の側はトラフィックの増加によりApacheインスタンスを追加した後の外観です。これはこれらの動作の方法ではないかもしれませんが、理想的にはドメインのDNSにバランサーのIPを追加します。次に、バランサーは各Apacheインスタンス上にある接続の数を確認し(内部IPまたは外部IPの構成リストを介して)、接続を均等に分配します。青色には、2番目のバランサーがあります。ある時点で、バランサーにも助けが必要になると確信しています。 たぶん私はこれについて間違っていますが、「バランサー」がどうあるべきかについての助けと、それらを設定する方法のベストプラクティスを探しています。 どんな助けも素晴らしいでしょう。

6
帯域幅を均等に分散するために、複数の静的ファイルサーバー間で負荷を分散する最良の方法は?
まず、私の状況を説明します。私はかなり人気のあるWebサイトをサイドプロジェクトとして運営しているため、大量のお金を投資することはできません。現在、Apacheに通常のリクエストを送信し、Lighttpdにすべての静的ファイルリクエストを送信するHAProxyを備えたサーバーが1台しかありません。すべてのphpおよびpostリクエストはApacheによって処理されるため、これは非常にうまく機能しますが、すべての画像はより高速なLighttpdに送信されます(サイトはほとんど画像なので、これは非常に重要です)。短いURLも非常に重要であるため、画像を提供するためにサブドメインを設定する必要がないのは良いことです。したがって、HAProxyを使用する私の理由です。 私が使用している非常に安価な未測定の帯域幅を提供するホスティングプロバイダーを見つけました.100mbsのネットワークカードが処理できる帯域幅を押し出すと問題が発生します。したがって、2台目のサーバーが必要です。 私は私のオプションに多くの考えを入れましたので、それぞれについて説明します。どれが私にとって最良の選択肢であるかについての洞察を提供できれば幸いです。あるいは、まだ考えていない別の選択肢があるかもしれません。 要件: 帯域幅の分配も必須です。私は非常に強力なサーバーを持っているので、スケールアップはオプションではありません。帯域幅を増やすためにスケールアウトする必要があります。 短いURL。画像を提供するためにimg.example.comのようなサブドメインを設定することは本当にありません。example.com/image.jpgは現在の状態であり、どのようにそれを維持したいのかです。しかし、他に方法がなければ、私は理解しています。 要求を処理するclostestサーバーは本当に便利ですが、必須ではありません。心に留めておくべきこと。 負荷分散するHAProxy: とにかくHAProxyを既に使用しているので、それは本当に簡単です。ただし、帯域幅を分配するときに問題が発生すると思います。私はこれで間違っているかもしれませんが、HAProxyはリクエストをサーバーに送信し、そこでサーバーはそれを処理し、HAProxyを介してクライアントに送り返しますか?したがって、すべてのトラフィックはロードバランサーを経由して戻り、すべてのサーバーを合わせた帯域幅を使用します。 DNSラウンドロビン: これが私の最良の選択肢かもしれません。Webサイトを複数のサーバーに複製し、私が今していることを行うだけです。マイナス面は、1つのサーバーがダウンしても、クライアントがサーバーに送信されることです。また、複数のサーバーにサイトを複製する必要があります。私は、静的ファイルを除くすべてを処理する1つのメインサーバーがあり、その後にいくつかの静的ファイルサーバーがあることを望んでいました。また、これは一種の「貧乏人の負荷分散」であり、もう少し洗練されたものがあればいいと読みました。 ダイレクトサーバーリターン: それは本当に複雑に思えますが、良い選択肢かもしれません。特定のURLを特定のサーバーに送信することはできますか?現在HAProxyと同様に、正しいファイル拡張子で終わるすべてのURLはLighttpdに送信され、他の拡張子はApacheに送信されます。だから私は似たようなものが必要だろう。同様に、すべてのphp要求は、バランシングソフトウェアを実行している同じサーバーによって処理されますが、すべてのjpg要求は複数のサーバーに送信されます。 理想的には、HAProxyがDirect Server Returnをサポートしていれば、私の問題は解決するでしょう。また、CDNを使用したくありません。それらは本当に高価であり、結局のところ、これは単なる副プロジェクトです。 私の問題を理解していますか?正しく説明しなかった場合や、さらに情報が必要な場合はお知らせください。


1
Webサーバーの高可用性を設計/保証する方法は?
RAID 1構成の2台のハードドライブを持つ1&1インターネットから専用サーバーが提供されました。破損したディスクが交換されるまで、一方のディスクが故障しても他方が引き継ぐことができるので、これで十分だと思っていました。ただし、2回の場合、両方のハードドライブが故障した(または1&1が機能せず、間違った順序で交換した)ため、深刻な問題が発生しました。 専用マシンで実行されているWebサーバーの高可用性を確保するための最良の方法は何ですか?これまでのところ: IIS 7、SQL Server + Web Appソフトウェアを実行する2x500GB HDDの専用サーバー 1日に2回実行されるEaseUSサーバーバックアップ ロードバランサーなし 私が抱えている問題は、マシンが再びダウンした場合、回復するのに平均3日で1&1かかることです。私はそのような別の損失を買う余裕はありません。彼らは専用サーバー用のロードバランサーを提供していませんが、おそらく私にはわからないソフトウェアでそれを行うことができます。 私の他の唯一のオプションは、専用サーバーを完全に削除し、VMWareマシンである「クラウド」サーバーに移動することです。インフラストラクチャが非常に大きいため、ハードウェアの問題が顧客にほとんど影響を与えないため、彼らはその堅牢性を主張しています。しかし、専用サーバーを簡単に構成できないため、専用サーバーを失うという考えは嫌いです。 これを行うための良い方法は何ですか?つまり、ほとんど停止せずに、自分のWebサイトをいつでも利用できます。私の予算は月額約150ドルです。私のサーバーは現在、約60米ドルです。

1
正常なバックエンドサービスにもかかわらず、Googleクラウドhttp(s)ロードバランサーが502を返す
2つのバックエンドにトラフィックを誘導するように構成されたGCE http(s)ロードバランサーがあります。-デフォルトバックエンド-別のホスト/パスルール(<host>:/*)を持つ2番目のバックエンド 両方のバックエンドは同じインスタンスグループに存在します-異なるNodePortを公開する2つのkubernetesサービスを実行するコンテナークラスター。 インスタンスグループには、公開された各NodePortに1つずつ、2つの名前付きポートがあります。 両方のバックエンドが正常であると報告しているにもかかわらず、2番目のバックエンドへのすべてのリクエストは502を返します。 サービス自体は問題ではありません-2番目のバックエンドの背後でサービスをデフォルトに切り替えると、正常に機能します。 注:この説明を最初に投稿してから大幅に更新/簡略化しました。はるかに単純な構成で問題を再現できるからです。

3
ロードバランサーをどのようにロードバランスできますか?
単一サーバーの単一データベースWebアプリケーションを、2つの物理的な場所にサーバーがある物理的に分散された高可用性構成に変換しようとしています(現時点では)。今、明らかに、私はのためにどのしまうルート要求、(よりこの場合は、リバースプロキシのように、私は簡単にするために、「ロードバランサ」と呼んでます)ロードバランサを必要とmywebsiteするいずれかnode1.mywebsiteまたはnode2.mywebsite。ただし、ロードバランサーがダウンした場合、高可用性サーバーは役に立ちません。そのため、私の考えでは、各場所に1つずつ、2つのロードバランサーが実際に必要になります。ただし、単一の外部アクセスポイントが必要なため、ロードバランサー用のロードバランサーが必要になります。ロードバランサーは、場所ごとにバランスを取る必要があります。 それで私の推論の何が問題になっていますか?物理的な場所のそれぞれが長時間電源から切断される可能性があると仮定して、実際にロードバランサーの高可用性を確保するにはどうすればよいですか? PS:HAと負荷分散の違いについての私の理解はせいぜい平凡であるという事実を知っています。私が欲しいのは、ある場所の電源が落ちた場合でも利用可能なサーバーです。ご理解いただきありがとうございます。

3
NginxはHAProxyの前にあるべきですか、それとも反対ですか?
私は、ウェブサイトのインフラストラクチャーアーキテクチャー設計の経験がほとんどありません。私はそれが特定の状況であるかもしれないことを知っています。Webサイトは次のことになっています。 1)一部のページ(ログインページなど)に対してHTTPSサポートが必要で、他のページは単にHTTPページです。 2)複数のWebサーバーが必要であるため、負荷分散が必要です。 3)パフォーマンスを向上させるには、HTTPキャッシングと圧縮が必要です。 4)一部のリクエスト(画像のアップロードなど)は、専用のバックエンドサーバーにルーティングする必要があります。そのため、URLベースのバランスが必要です。 NginXとHAProxyは、どちらもオープンソースのリバースプロキシやロードバランサーとして優れていることを知っています。HAProxyはSSLをサポートしていないため、Nginxの負荷分散はHAProxyほど優れていません。私は両方を取ります。 Nginx(リバースプロキシとして)をHAProxyの前に(ロードバランサーとして)または反対に配置する必要がありますか? ありがとう

2
Kubernetes-GCEロードバランサーを使用してコストを削減することを回避できますか?
Gitlab-CIを使用して、GCEにKubernetesクラスターをデプロイしています。コストを最小限に抑えたい-ここに私の現在のセットアップがあります: ノードは3つのf1-microインスタンスで実行されます TraefikServiceTypeで構成された実行中のシステムポッドLoadBalancer 構成されたワイルドカードDNS 1 postgres ポッド ingressTraefik用に構成された1つのWebサーバーポッド 導入コストを削減したい。コストのほとんどはGCEロードバランサーにあります。GCEでロードバランサーの代わりにパブリックIPアドレスを使用する方法はありますか?その場合、(静的IPを予約する代わりに)クラスタに割り当てられたIPアドレスを利用できますか? 言い換えれば、ロードバランサなしでGCEを使用して、エフェメラルIPをKubernetesサービスに関連付ける方法はありますか? GCEで一般的にコストを削減するために、別の方法で実行できる他の構成はありますか?

2
サーバーがロードバランサーを使い果たしたときにアラートを出す
私たちは多くの環境に多くのサイトを持っています。環境の多くは、2つのWebサーバー(場合によっては2つのアプリサーバー)で負荷分散されます。過去2か月に2回、サーバーが誤ってロードバランサーから取り出されたという状況に遭遇しました。これは、2日後に2台目のサーバーが取り外され、サイトが完全にダウンしたときに私たちを噛みました。どちらの場合も問題は迅速に発見および修正されましたが、サーバーがロードバランサーの外にある場合はアラートが必要であると思います。サーバーのWebサイトが稼働中で応答していたため、通常のアラートはここでは機能しませんが、LBにはありませんでした。 ロードバランサー自体でアラートを設定することは可能かもしれませんが、それらは私たちのホスティングプロバイダーによって管理されており、それらに対処するのは面倒な場合があります。 私の考えは、15分ごとにサーバーログをスキャンし、1時間あたりのユニークユーザー数が特定のしきい値を下回ったときにメールを送信するアプリを用意することです。書くのはそれほど難しいように聞こえませんが、すでにこれらの線に沿って何かを行う標準のサードパーティツールがすでにあるようです。 必要であれば、Windows、ASP.NET、IISを使用します。 Webサイトがヒットしない場合に警告するツールの推奨事項は?

1
2つのインターネット接続と1つのLAN接続を備えたマルチホームLinuxロードバランサーを作成する
ええと、これはおそらく回答されました。残念ながら、私はそれが解決策であると思われるものを見つけていません。 私はこれらのページを見て、それらにはいくつかの有用な情報がありますが、完全な解決策ではありません: Linuxでの複数のISP接続の負荷分散とNAT処理 2つのインターネット接続と1つのNICが可能ですか? Linux分割アクセス(複数のインターネット接続と負荷分散) Linuxファイアウォール+負荷分散ISP接続 私はDebian 8、Ubuntu 16.04デスクトップまたはUbuntu 16.04サーバー(正直なところ、おそらくDebian)を使用します。 では、2つのギガビットと3つのNICを搭載し、100 MbpsのオンボードLAN接続をオンボードにします。ISP接続は、両方のNICでPPPoE認証を介してギガビットLANカードを使用します(これが可能でない場合でも、DSLモデムの非ブリッジモードを使用します)。また、両方のネットワークに静的IPが割り当てられます。現在(変更されます)、プライマリ接続には5つのグループがあります。これらのIPアドレスのいずれかに着信するトラフィックを、ネットワーク上の適切なサーバーにルーティングする必要があります。 ここに私の質問があります: どうすれば設定できますか?NATing、IP Chans、IPマスカレード、ルーティングなどを使用していますか? システムに入ってくるトラフィックを外部からネットワーク上の特定のIPアドレスにルーティングするにはどうすればよいですか? 優しくしてください、これは私が以前にこのようなことを試みたのは初めてです:)。 編集1 ネットワークトポロジを追加するのを忘れました: 編集2 何かに気付いた... PPPoE認証を行うために、特定のインターフェイスで資格情報の認証を強制する必要があります。これはどのように行われますか? 私はその質問をここに投稿しました: 2つのインターネット接続と1つのLAN接続を備えたマルチホームLinuxロードバランサーを作成する アップデート1 それでもマルチホップラウンドロビンを機能させることができません。次のサイトに記載されている手順を試してもうまくいきませんでした。 Linuxでの複数のISP接続の負荷分散とNAT処理 Linux-デュアルインターネット接続/負荷分散 HOWTO:Linuxでのマルチルーティング ファイルが既に存在するか、デバイスが無効であるというメッセージが表示され続ける。ここに/私の設定/情報があります IFCONFIG eth0 Link encap:Ethernet HWaddr ec:08:6b:04:8e:ac inet addr:172.16.0.2 Bcast:172.16.0.255 Mask:255.255.255.0 inet6 addr: fe80::ee08:6bff:fe04:8eac/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.