タグ付けされた質問 「cluster」

コンピュータークラスターは、緩やかに接続されたコンピューターのセットで構成されており、多くの点でそれらを単一のシステムと見なすことができます。

4
Dockerアプリケーションに標準出力への書き込みを行わせます
12ファクターアドバイザリに準拠してサードパーティアプリケーションを展開していますが、ポイントの1つは、アプリケーションログをstdout / stderrに出力する必要があることを示しています。その後、クラスタリングソフトウェアがそれを収集できます。 ただし、アプリケーションはファイルまたはsyslogにのみ書き込むことができます。代わりにこれらのログを印刷するにはどうすればよいですか?

2
nginx自動フェールオーバーロードバランシング
ロードバランシングにnginxとNginxHttpUpstreamModuleを使用しています。私の設定は非常に簡単です: upstream lb { server 127.0.0.1:8081; server 127.0.0.1:8082; } server { listen 89; server_name localhost; location / { proxy_pass http://lb; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } しかし、この構成では、2つのバックエンドサーバーのいずれかがダウンした場合、nginxはまだリクエストをルーティングし、半分の時間でタイムアウトになります:( ダウンしたサーバーを検出したときにリクエストを別のサーバーに自動的にルーティングするようにnginxを作成するソリューションはありますか? ありがとうございました。

4
パペット証明書に事前署名するにはどうすればよいですか?
サーバーフォールトで回答できるため、 この質問はStack Overflowから移行されました。 9年前に移行され ました。 Puppetでは、管理対象のクライアント(puppet)とサーバー(puppetmaster)の間に証明書が必要です。クライアントで手動で実行してからサーバーに移動して証明書に署名することはできますが、クラスター/クラウドマシンのこのプロセスをどのように自動化しますか?
26 cluster  puppet  cloud 

15
Windows 2008 / SQL Serverクラスタリング用の最も安価なiSCSI SAN?
ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け入れていません。 フェールオーバークラスタリングのためにWindows Server 2008 / SQL Serverで使用するのに適した運用品質のiSCSI SANはありますか? これまでのところ、私はDellのMD3000iとHPのMSA 2000(2012i)のみを見てきましたが、どちらも最小限のディスク構成で約6000ドルです。Buffalo(はい、私も知っています)には、iSCSIサポートを備えた1000ドルのデバイスがありますが、2008年のフェールオーバークラスタリングでは機能しないと彼らは言います。 実稼働環境でのフェールオーバーに適したものを探していますが、IO要件は非常に低くなっています。(クラスタリング、たとえば、30GB DB。) ソフトウェアの使用に関して:Windowsでは、StarWindが優れたソリューションを持っているようです。しかし、実際には、ハードウェアSANを購入するよりもお金がかかります。(私が理解しているように、レプリカを持つことをサポートしているのはエンタープライズ版のみであり、ライセンスあたり3000ドルです。) Linuxを使用できると考えていたので、DRBD + iSCSIターゲットのようなもので十分でしょう。ただし、フェールオーバークラスタリングにWindows 2008が必要とするSCSI-3永続予約をサポートする無料または低価格のiSCSIソフトウェアは見たことがありません。 $ 6Kはそれほど多くないことを知っています。実用的な安価なソリューションがあるかどうかを知りたいだけです。そして最後に、はい、ソフトウェアは高価ですが、多くの小規模企業はMS BizSparkを取得しているため、Windows 2008 Enterprise / SQL 2008ライセンスは完全に無料です。

2
Dockerボリュームをglusterfsに保存することをお勧めしますか?
現在、サーバーとアプリの一部をcoreOS環境に移行することを考えています。ここで見た問題の1つは、コンテナーを新しいマシンに移動するときにcoreOSがDockerボリュームを処理しないため、永続データの管理です。いくつかの調査の後、glusterFSを見つけました。これは、すべての問題を解決できるクラスターファイルシステムであると主張しています。 私の現在のアイデアは次のとおり/mnt/glusterです。たとえば、各coreOSマシンで特権コンテナーとして実行され、ストレージを公開するglusterFSコンテナーがあります。私の中でDockerfileの私はすべてのボリュームがこのパスにマウントする必要があることを指定します。 次に検討したのは、どのコンテナが独自のボリュームを取得し、どのコンテナがボリュームを共有するかです。たとえば、すべてのmysqlコンテナは複製を自分で処理できるため、独自のボリュームを取得します。それをいじりたくありません。同じWebサイトにサービスを提供するWebサーバーは、「ユーザーがアップロードした画像」などのデータにデータを複製できないため、同じボリュームを適切に使用します。 誰かがこのようなことを試しましたか、私が見逃したものはありますか?

1
Redisクラスター:(エラー)移動
次のノードを持つRedisクラスターがあります。 192.168.0.14:6379 master (slots from 0 to 16383) 192.168.0.15:6379 slave (slots from 0 to 16383) 192.168.0.16:6379 master (without slots) ドキュメントには、どのノードでもクエリを適切なノードにリダイレクトできると書かれています。しかし、192.168.0.16:6379マスターノードからリクエストをリダイレクトできません。ここに私が試したものがあります: 192.168.0.16:6379> set myKey myValue (error) MOVED 16281 192.168.0.14:6379 192.168.0.16:6379> get myKey (error) MOVED 16281 192.168.0.14:6379 書き込みも読み取りもしません。192.168.0.14:6379から「myKey」を取得しようとすると、次のように表示されます。 127.0.0.1:6379> get myKey (nil) リクエストの何が問題になっていますか?Redisサーバーバージョン3.2.5を使用しています

6
2つの離れたLinuxサーバー間での大きなファイルツリーの双方向のリアルタイム同期
大きなファイルツリーとは、約20万ファイルを意味し、常に成長しています。しかし、比較的少数のファイルが任意の1時間で変更されています。 双方向とは、どちらかのサーバーで変更が発生し、他方にプッシュする必要がある可能性があることを意味するため、rsyncは適切ではないようです。 遠いということは、サーバーは両方ともデータセンターにありますが、地理的には互いに離れているということです。現在、サーバーは2つしかありませんが、時間が経つにつれて拡大する可能性があります。 リアルタイムでは、同期の間に少しの遅延があっても問題ありませんが、1分ごとに1時間でファイルのごく一部が変更される可能性があるため、1〜2分ごとにcronを実行することは適切ではないようです。 編集:これはVPS上で実行されているので、できるカーネルレベルのものの種類に制限されるかもしれません。また、VPSはリソースが豊富ではないため、大量のRAMを必要とするソリューション(Glusterなど)を避けます。 これを達成するための最良の/最も「受け入れられた」アプローチは何ですか?これは一般的な必要性のように思えますが、一般的に受け入れられているアプローチをまだ見つけることができませんでした。これは驚くべきことでした。(私は大衆の安全を求めています。:) ファイルシステムの変更レベルで同期をトリガーするためにlsyncdに出会いました。それは非常に一般的ではありませんが賢いようで、さまざまなlsyncdアプローチに少し混乱しています。rsyncでlsyncdを使用しているだけですが、rsyncにはメモリの概念がないため(たとえば、Aで削除されたファイルをBで削除する必要があるか、Bで新しいファイルであるかを知るため)それをA)にコピーする必要があります。 lipsyncは単なるlsyncd + rsyncの実装のようです。 次に、次のようにcsync2でlsyncdを使用しています:https : //icicimov.github.io/blog/devops/File-system-sync-with-Csync2-and-Lsyncd/ ...このアプローチに傾いていますが、 csync2は少し風変わりですが、テストは成功しましたが。私は、この方法についてコミュニティで多くの確認を見つけることができなかったことを主に心配しています。 ここの人々はユニゾンをとても気に入っているように見えますが、もはや活発に開発されていないようで、lsyncdのような自動トリガーを持っているかどうかは明らかではありません。 Glusterが言及しているのを見たことがありますが、必要なものが多すぎるかもしれません。 更新: fyi-私が言及した元のソリューションであるlsyncd + csync2に行きました。それは非常にうまく機能しているようであり、サーバーを非常に緩やかに結合させるアーキテクチャーのアプローチが好きです。

1
使用するメッセージングレイヤーは、HeartbeatまたはCorosyncですか?
Webサーバークラスターのセットアップに関する研究をほぼ完了しましたが、Pacemakerで使用するメッセージングレイヤーについては未定です。私が使用しているサーバーはすべてFedoraであるため、両方のレイヤーはYUMを介して利用できます。両方とも十分に文書化されており、Pacemakerでうまく機能すると言われています。私が見つけられなかったのは、どちらが良いかという意見です。誰もがこれらの両方の経験があり、どちらが優れているかについて好みがありますか?より大きなコミュニティサポートベースはありますか?一方が他方よりも安定していますか?または、これはarbitrary意的な決定ですか?

4
ZFSクラスター化ファイルシステムは可能ですか?
ZFSクラスターを作成することはできますか?それとも、GlusterFSが管理するUFSフォーマットのプールを使用して、ZFSの(少なくとも私にとっては)ugいルートに行く必要がありますか? アイデアは、ZFSが問題なく処理できるマルチペタバイトの分散ストアに拡張できるかどうかを確認することです。 ポインター、ブログ、投稿はありますか?

8
Webサイトの高可用性を導入するのに適切なタイミングはいつですか?
Webサイトの高可用性を導入するのに適切なタイミングはいつですか? 高可用性オプションに関する多くの記事があります。ただし、単一サーバーから高可用性構成に切り替えるのに適切なタイミングはいつかということは明らかではありません。 私の状況を考慮してください: http : //www.postjobfree.comは24時間年中無休のWebサイトであり、大量のトラフィックがあります:http : //www.similarweb.com/website/postjobfree.com 現在、単一のサーバーで実行しています。IIS7.0 WebサーバーとSQL Server 2008の両方が同じハードウェアボックスで実行されています。 通常、Windows Serverの更新プログラムで必要な再起動が原因で、時折(1か月に1回)〜5分のダウンタイムが発生します。通常、ダウンタイムは予定されており、夜間に発生します。それでも、Google Botと一部のユーザーは夜もアクティブであるため、不快です。 現在のWebサイトの収益は、約8,000ドル/月です。 2サーバー構成(2つのWebサーバーのWebファームと、2つのハードウェアサーバーでホストされる2つのSQL Serverのクラスター)に切り替えることを検討します。 長所: 1)高可用性(理論的にはダウンタイムなし)。サーバーの1つがダウンした場合でも、別のサーバーが引き継ぎます。 2)データの損失なし:SQLクラスターがない場合、ハードウェア障害の場合に最大1日分のデータが失われる可能性があります(毎日バックアップを行います)。 短所: 1)そのような構成をセットアップして維持するためのより多くの努力。 2)ホスティングコストが高い。毎月〜600ドルではなく、毎月約1200ドルです。 あなたの推薦は何ですか?

4
複数のサーバーにわたるアプリケーションの管理、またはPXE対cfEngine / Chef / Puppet
数個(5個程度)のボックスで実行されているアプリケーションがあります。ハードウェアはすべてのマシンで同一であり、ソフトウェアも理想的です。私はこれまで手作業でそれらを管理してきましたが、もうしたくありません(静的IPアドレス、必要なすべてのサービスの無効化、必要なパッケージのインストール...)。誰でも次のオプションの長所と短所のバランスをとることができますか? 1:すべてのボックスに個別にcentosをインストールし、chef / cfengine / puppetで構成を管理します。私はアプリケーションの1つを使用することを学ぶための言い訳を望んでいたので、これは良いでしょうが、これが実際に最良の解決策であるかどうかはわかりません。 2:1つのボックスを完璧にしてイメージします。PXEを介してイメージを提供し、変更を加えたいときはいつでも、新しいイメージからボックスをリブートできます。通常、クラスタ担当者は、/ etc / sysconfig / network-scripts / ifcfg *ファイルにMACアドレスがあるなどのことをどのように処理しますか?infinibandも使用します。また、hwaddrが間違っている場合は開始を拒否します。これらは起動時に正しく生成できますか? 私はPXEソリューションに傾いていますが、muninまたはnagiosでの監視はこれにより少し複雑になると思います。このタイプの問題を経験した人はいますか? すべてのサーバーにはSSDが搭載されており、高速で強力です。 ありがとう、マット。

5
少数のサーバー間でミラー化されたファイルシステム
いくつかのLinuxサーバー間で1つのディレクトリ(または1つのファイルシステム)をミラーリングまたは複製するソリューションを探しています。理想的なソリューションは、すべてのサーバーに読み取り/書き込みアクセスを許可するものです。また、サーバーの1つがダウンした場合でも、データを失うことなく残りは機能するはずです。 私はいくつかの解決策を見てきました: DRBD:ブロックレベルのレプリケーション、少しやり過ぎのようです。 lsyncd:非常にシンプルに見えますが、パフォーマンスには疑問があります。 GlusterFS:それは良い一致のように思えますが、複製モードが正確にどのように機能するかはまだわかりません。必要な特性はありますか? 他の提案は大歓迎です。

1
クラスター機能レベルのダウングレード
現在のクラスターにServer 2012 Hyper-Vサーバーを追加しようとしています。 現在、2台のサーバー2016 Hyper-Vサーバーがクラスター化されています。 クラスター上でいくつかの再構成を行う必要があるため、3番目を追加する必要がありますそれらを戻します。 Server 2012サーバーを追加しようとすると、エラーが発生します。 Node Server.domain.com エラー *サーバー 'Server.domain.com'をクラスターに追加できませんでした。ノード「Server.domain.com」をクラスター「ClusterName」に追加中にエラーが発生しました。 参加ノードとクラスター内の他のノードのオペレーティングシステムのバージョンに互換性がないため、ノードはクラスターに参加できませんでした。クラスターのオペレーティングシステムのバージョンに関する詳細を取得するには、構成の検証ウィザードまたはTest-Cluster Windows PowerShellコマンドレットを実行します。 Cluster Fucntional Levelが9であり、8を取得できると思うので、このエラーをグーグルで追加することができます。 ただし、現在の実行レベルは9です。 クラスターの機能レベルを9から8にダウングレードするにはどうすればよいですか?
12 hyper-v  cluster 

3
RabbitMQ-ゼロダウンタイムアップグレード用にサーバーを構成する方法
docsとActionのRabbitMQを読んで、RabbitMQクラスターの作成は簡単に思えますが、既存のRabbitMQクラスターをアップグレードまたはパッチを適用するには、クラスター全体を再起動する必要があります。 クラスタリング、ショベル、フェデレーション、および負荷分散を組み合わせて、キューやメッセージを失うことなくローリングアップグレードを可能にする方法はありますか?

4
2ノードのアクティブ/パッシブLinux HAペースメーカークラスタでSTONITHをセットアップする方法
PostgreSQLデータベースを稼働状態に保つために、corosyncとpacemakerを備えたアクティブ/パッシブ(2ノード)Linux-HAクラスターをセットアップしようとしています。DRBDとservice-ipを介して動作します。node1に障害が発生した場合、node2が引き継ぎます。PGがnode2で実行され、失敗した場合も同じです。STONITHのものを除き、すべてが正常に機能します。 ノード間には専用のHA接続(10.10.10.X)があるため、次のインターフェース構成があります。 eth0 eth1 host 10.10.10.251 172.10.10.1 node1 10.10.10.252 172.10.10.2 node2 Stonithは有効になっており、ノードを強制終了するためにssh-agentでテストしています。 crm configure property stonith-enabled=true crm configure property stonith-action=poweroff crm configure rsc_defaults resource-stickiness=100 crm configure property no-quorum-policy=ignore crm configure primitive stonith_postgres stonith:external/ssh \ params hostlist="node1 node2" crm configure clone fencing_postgres stonith_postgres crm_mon -1 ショー: ============ Last updated: Mon Mar …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.