タグ付けされた質問 「reverse-proxy」

リバースプロキシは、クライアント用に定義された特定のサーバーセットからリソースをフェッチするプロキシサーバーの一種です。これは、セキュリティ上の理由から、または利用可能なパブリックIPアドレスの不足のために、コンテンツを含むWebサーバーを直接公開しないことが有利な場合に使用されます。

3
ネットワークの問題をシミュレート/エミュレートするためにWindowsで使用できるツールは何ですか?
サーバーの前でリバースプロキシとして機能し、ジッター、遅延、パケット損失などのさまざまなネットワークの問題を引き起こすことができるWindows用のツールを探しています。 私の好みは、Windowsで動作するソフトウェアソリューションです。Httpd mod_proxyはそのような構成をサポートしていないようで、このカテゴリのツールのグーグル検索は実を結ばないことを証明しています。

6
リバースプロキシとは何ですか?
プロキシが何であるかは知っていますが、リバースプロキシが何であるかはわかりません。おそらくロードバランサーに似ているように思えます。あれは正しいですか?

3
nginxリバースプロキシでSet-Cookieのドメイン部分を書き換える方法は?
サーバーフォールトで回答できるため、 この質問はStack Overflowから移行されました。 8年前に移行され ました。 私はシンプルなnginxリバースプロキシを持っています: server { server_name external.domain.com; location / { proxy_pass http://backend.int/; } } 問題は、バックエンドがそれが逆プロキシされていることを知らないため、Set-Cookie応答ヘッダーにが含まれて;Domain=backend.intいることです。 Set-Cookieに置き換え;Domain=backend.intて、応答ヘッダーのコンテンツをnginxに書き換えさせるにはどうすればよい;Domain=external.domain.comですか? Hostこの場合、ヘッダーを変更せずに渡すことはオプションではありません。 Apache httpdにはしばらくの間この機能がありましたが、を参照してくださいProxyPassReverseCookieDomain。しかし、nginxで同じことを行う方法を見つけることができないようです。

3
Nginx Reverse Proxyからのカスタムヘッダーの転送
追加の処理のためにリクエストをApacheに転送するリバースプロキシとして機能するnginx Webサーバーがあります(理由を聞かないようにお願いします)。カスタムヘッダーを添付しようとしているリクエストがあり、nginxがそのカスタムヘッダーをApacheに転送してアプリで何かを行えるようにしたいのですが。 私はHttpProxyModuleドキュメントを熟読しましたが、適切な場所にいてもあまり説明的ではありません(私はそうではないかもしれません)。 nginxにX-CUSTOM-REFERRERヘッダーを転送させるにはどうすればよいですか?また、可能であれば、私はそれを一緒に転送したい任意の入って来カスタムヘッダー。後者はあまりにも依頼する場合には、前者は私の現在の必要性のために十分であろう。 ご覧のとおり、nginxは非常に新しいので、修正バージョンが役立ちます。 ありがとう。 更新 既存の構成からの関連するスニペット: location / { proxy_pass http://preview; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; # proxy_set_header X-Custom-Referrer $x_custom_referrer; }


6
ソフトウェアロードバランサーをスケールアウトする一般的な方法は何ですか?
多くの場合、アプリサーバーの前にSLB /リバースプロキシを持つWebアプリアーキテクチャがあります。 SLBへの接続数が、単一の SLBが効果的に処理するには多すぎるリソースを必要とする場合はどうなりますか?具体的でありながら最高の例として、200万の永続的なHTTP接続を検討してください。明らかに、単一の SLBはこれを処理できません。 SLB をスケールアウトするための推奨構成は何ですか? LBのグループ/クラスターを作成するのは一般的ですか?そうである場合、LBのグループ間でクライアントの負荷はどのように分散されますか?

2
Nginx Config:別のポートへのフロントエンドリバースプロキシ
80ではなくポート5010でリクエストを処理する小さなWebサーバーがあります。 ポート80でリクエストを受信するフロントエンドプロキシとしてnginxを使用し、それらのリクエストをポート5010で処理できるようにします。 nginxを正常にインストールしました。UbuntuKarmicでスムーズに実行されます。 しかし、デフォルトのnginx.confを再構成しようとする試みは成功していません。 サーバーディレクティブにポート5010のlisten引数を含めてみました。 proxy_passディレクティブも試しました。 必要な変更に関する提案、またはポート転送のみを行うために設定する必要があるディレクティブ。

2
nginxリバースプロキシとバックエンドウェブサーバー間でHTTP / 2.0を使用する
HTTP / 2.0を実行できるバックエンドWebサーバーの前で、nginxをreverse-ssl-proxyとして使用します。 nginxがHTTP / 2.0ではなくHTTP / 1.1を介してバックエンドサーバーにリクエストをプロキシすることに気付きました。代わりに、暗号化されていないHTTP / 2.0接続を使用するようにnginxに指示することはできますか?これによりパフォーマンスが向上しますか?

2
nginxは、upstream_http_変数を条件とするヘッダーを追加します
かなりの数のサイトをプロキシするnginxにリバースプロキシがあります。最近、SSL対応のすべてのWebサイトでHTTP Strict Transport Securityを有効にしました。これを有効にしたくないサイトが1つあります。 アップストリームがすでにStrict-Transport-Security-headerを送信しているかどうかを簡単に確認し、そうでない場合は追加します。そうすれば、私のアップストリームはmax-age=0、プロキシによってHSTSが有効にされないようにするためのSTSヘッダーを送信できます。 次のように構成を変更するだけだと思いました。 location / { proxy_pass http://webservers; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $remote_addr; proxy_set_header X-Forwarded-Proto "https"; if ($upstream_http_strict_transport_security = "") { add_header Strict-Transport-Security "max-age=15552000"; } } しかし、おそらくが悪の場合、これは機能しません。変数が実際に存在することを確認するためにさまざまなことを試してみました(これが事実です)が、何も役に立たないようです。 どうすればこの作品を作ることができますか?

3
リバースプロキシはSSLパススルーでSNIを使用できますか?
1つの外部IPアドレスを使用して、https経由で複数のアプリケーションを提供する必要があります。 SSL証明書は、リバースプロキシで管理しないでください。アプリケーションサーバーにインストールされます。 SNIを使用し、エンドポイントで終了するためにSSLを渡すようにリバースプロキシを構成できますか? これはNginxやApacheのようなものを使用して可能ですか?構成はどのように見えますか?

3
アップストリームSSLを使用したリバースプロキシとしてのnginx
自己署名証明書をインストールしなくてもクライアントが接続できるように、内部APIのプロキシを構築しています。 クライアント(内部でのみ構築、所有、使用)は、SSLを介してnginxボックスに接続します。ここでは、XSendfileを使用してアプリケーションレベル(レールアプリ)で資格情報を検証します。認証情報が有効な場合、接続はnginxに戻され、proxy_passを使用して接続がアップストリームサーバーに送信されます。 現在、これは標準のhttp接続には最適ですが、証明書をミックスに追加する方法を見つけようとしています。 この質問はほとんど同じであるこの1が、厄介な証明書の要件を持ちます。 これはnginxでも可能ですか?より良い解決策はありますか? また、クライアント-> nginxからのhttp、およびnginxからAPIへの自己署名証明書についても解決します。

1
Nginx:要求本文のバッファリングを完全に無効にする方法
UbuntuボックスにMadsonicをセットアップして、その前でNginxを実行しようとしています。問題は、Webインターフェースを介してコンテンツをアップロードしようとすると、この警告が引き続き表示されることです。 31115#0: *14 a client request body is buffered to a temporary file また、アップロードウィンドウの進行状況バーが機能しない理由も説明します。関連するNginxの構成は次のとおりです。 # proxy the madsonic server here location / { proxy_pass https://madsonic-server/; proxy_redirect off; proxy_buffering off; proxy_request_buffering off; allow all; proxy_http_version 1.1; proxy_set_header Host $http_host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Host $server_name; proxy_set_header X-Forwarded-Proto $scheme; …

2
nginxリバースプロキシによって返されるHTMLページを変更する
インターネットからイントラネット内にあるサードパーティアプリケーションにアクセスするためのリバースプロキシをセットアップしています。このアプリケーションがURL上にあるとしましょう: https://internalserver:8080/ (イントラネットからのみ到達可能) プロキシがオンになっています: https://proxyserver/ (世界のどこからでも到達可能) プロキシはnginxによって管理されており、正常に機能しています。ユーザーがアクセスするhttps://proxyserver/ と、でアプリのコンテンツを取得しhttps://internalserver:8080/ます。 問題は、アプリケーションがHTML応答に絶対URLを書き込んでいるため、ユーザーが新しいページへのリンクをクリックすると、ブラウザがのhttps://internalserver:8080/somepage 代わりに内部名でページを検索しようとすること です https://proxyserver/somepage。 これはプログラムのバグであることは知っていますが、プログラムを変更することはできません。 応答をインターセプトし、URLを変更し、nginxで最終クライアントに送信(変更)できますか?それとも別のツールで? 編集:私は前にこの質問を見ましたが、私の場合はより具体的です、引用された質問は一般的な変更を求めます。その場合、fast-cgiアドホックプログラムが最適なソリューションであり、私が望んでいるのは、より一般的なシナリオのためのより具体的なソリューションです(と思います)。fast-cgiプログラムは機能しますが、私はこのシナリオの最も簡単で、おそらくより強力な、現実世界でのソリューションを探しています。

3
Apache proxy_httpをipにリダイレクトし、ホスト名を設定します
うまくいけば、皆さんが私が抱えているプロキシの問題で私を助けることができます。 私がすでに持っているもの * .proxy.domainから* .intern.domainにリクエストをプロキシするために、Apache HTTPリバースプロキシを設定しました。Apacheは、外部ネットワークから内部Webアプリケーションに到達する唯一の方法です。 例: app.proxy.domain -> app.intern.domain mail.proxy.domain -> mail.intern.domain これはすべてうまく機能していますが、次の問題があります。 問題 次のリクエストをプロキシしたい: app.proxy.domain -> app.internal.domain app-dev.proxy.domain -> app-dev.internal.domain これは問題ありませんが、残念ながらapp-devサーバーはappサーバーwebapplicationの正確なコピーを実行し、このwebapplicationはホスト名(app.intern.domain)にのみ応答します だから私がする必要があるのは、次のプロキシです app.proxy.domain -> app.internal.domain (10.0.1.1) app-dev.proxy.domain -> app.internal.domain (10.0.1.2) / etc / hostsに「10.0.1.2 app.internal.domain」を追加することで2番目の方法を実行できますが、これはapp.proxy.domainがdev-serverに到達することも意味します。 app-dev.proxy.domainのvhost構成ファイル内でのみ/ etc / hostsエントリを設定するオプションを探しています。これにより、他のすべてのvhost configはapp.intern.domainにDNSを使用するだけです。 考え... Apacheの設定を伝える方法はありますか ProxyPass / http://10.0.1.2/ app.intern.domainをホスト名として送信しますか? dev-servers webapplicationを編集してapp-devをリッスンすることは、正確なコピーであることが想定されているため(オプションではありません...) …

2
proxy:error AH00898:リモートサーバーとのSSLハンドシェイク中のエラー
ネットワーク内のcPanelメールサーバーのフロントエンドとして機能するサーバーがあります。フロントエンドサーバーのApacheプロキシは152日間エラーなしで実行されましたが、メールサーバーのWebメールクライアントにアクセスするときに500/502エラーが突然発生しました。 フロントエンドサーバーは署名されたSSL証明書を使用し、cPanelサーバーは自己署名証明書を使用しています。以下は、フロントエンドサーバーが最初に発生したときのフロントエンドサーバーからのエラーログ出力です。 [Tue Sep 10 18:22:52.959291 2013] [proxy:error] [pid 19531] (502)Unknown error 502: [client 173.xx.xx.xx:9558] AH01084: pass request body failed to 184.xx.xx.xx:2096 (184.xx.xx.xx), referer: https://domain.com:2096/cpsess12385596/3rdparty/roundcube/?_task=mail&_refresh=1&_mbox=INBOX [Tue Sep 10 18:22:52.959469 2013] [proxy:error] [pid 19531] [client 173.xx.xx.xx:9558] AH00898: Error during SSL Handshake with remote server returned by /cpsess12385596/3rdparty/roundcube/, referer: https://domain.com:2096/cpsess12385596/3rdparty/roundcube/?_task=mail&_refresh=1&_mbox=INBOX フロントエンドサーバーは、Apache/2.4.6 (Amazon) …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.