タグ付けされた質問 「google-kubernetes-engine」

3
kubernetesクラスター内のコンテナーがいつ/ if /なぜ再起動するかを確認するにはどうすればよいですか?
google container engineで遊ぶための単一ノードkubernetesクラスターがあります。 2回、私がホストしている小さな個人Webサイトが数分間オフラインになりました。コンテナのログを表示すると、通常の起動シーケンスが最近完了したことがわかります。そのため、コンテナが死んだ(または強制終了された?)ため、再起動したと考えられます。 この出来事の方法と理由をどのように把握できますか? コンテナが予期せず起動/停止するたびにアラートを受け取る方法はありますか?

4
gcloud docker — 404でログイン試行に失敗したプッシュ結果
DockerイメージをGoogleのコンテナーレジストリにプッシュしようとしていますが、Dockerログインが失敗したというエラーが引き続き表示されます。走る gcloud docker -- push gcr.io/<my-project-id>/test-image 私は戻ってきます ERROR: Docker CLI operation failed: Error response from daemon: login attempt to https://appengine.gcr.io/v2/ failed with status: 404 Not Found ERROR: (gcloud.docker) Docker login failed. Dockerを使用しないその他のgcloud操作。たとえば、を介してクラスターを作成できますgcloud container clusters create my-cluster。 今日、ローカルレジストリをいじってみましたが、壊れている可能性があるかどうかはわかりません。 ありがとう!

2
GKEの送信接続の安定したパブリックIPまたはIP範囲
Google Kubernetes Engineを使用してオンデマンドポッドを実行しています。各ポッドは、ノードポートサービスを使用してインターネットに公開されています。 GKEで、送信接続の単一のIPまたはIP範囲を取得し、サードパーティのAPIにそれらをホワイトリストに登録する方法を探しています。 GKEノードIPは、ノードが自動スケーリングするとき、またはノードをアップグレードするときに管理できません。送信IPの一貫性を維持する方法が必要です。 KubernetesノードにシンプルなNATゲートウェイを使用してみました(ここの例を使用)。これにより、アウトバウンド接続がNATゲートウェイにルーティングされますが、ポッド(ノードポートサービス)へのインバウンドトラフィックが遮断されます。 NATゲートウェイ。 GoogleクラウドリージョンのデフォルトのIP範囲はありますか? GKEが静的IPの事前予約済みリストからノード外部IPを選択する方法を提供する場合(または) ポッドからの送信トラフィックを表す単一の静的IPまたはIP範囲を実現する他の方法はありますか 私はこのような同様の質問を見つけましたが、ポッドは外部接続可能であるべきで、NATを使用すると中断するため、私の問題には対応していません。

4
Kubernetesの展開仕様で環境変数を使用する
現在Deployment.yaml、サービスのデプロイにはKubernetes仕様を使用しています。仕様には、特定のIPアドレスへの逐語的な参照が含まれています(<static-ip-address>以下のようにマークされています)。 spec: type: LoadBalancer loadBalancerIP: <static-ip-address> パスワードやIPアドレスなどの情報をリモートGitリポジトリにプッシュするのが心配です。これを回避するには、環境変数を使用します。たとえば、展開仕様と実際の展開では、おおよそ次のようになります。 spec: type: LoadBalancer loadBalancerIP: ${SERVICE_ADDRESS} そして export SERVICE_ADDRESS=<static-ip-address> kubectl create -f Deployment.yaml 明らかに、この特定の構文はまだ機能しません。しかし、このようなものは可能ですか? 別のプロビジョニングツールに頼らないほうがいいです。SecretsとConfigMapsは有望に見えますが、明らかにこの目的に合った方法で消費することはできません。それで定義された静的IPアドレスを直接参照できればgcloud compute addresses create service-address最高です。

2
Google Kubernetes EngineでKubernetesロードバランサーの外部IPアドレスを選択する方法
Google Kubernetes Engineを使用してWebアプリをデプロイしていますが、使用するドメイン名がGoogle Cloud Platformの同じプロジェクトの一部として制御する既存の静的IPアドレスのロードバランサーを介してアクセスできるようにしたいすでにこのIPを指している。 ポッドに使用したyamlファイルは次のとおりです。 apiVersion: v1 kind: Pod metadata: name: my-pod labels: app: my-app spec: containers: - name: my-container image: gcr.io/my-project/my-app:latest 次を使用してロードバランサーを設定できます。 apiVersion: v1 kind: Service metadata: name: my-load-balancer spec: ports: - port: 80 targetPort: 80 selector: app: my-app type: LoadBalancer これにより、アプリにアクセスできる外部IPが提供されますが、必要なIPを使用するように構成する方法が見つかりません。サービスマニュアルには spec.clusterIP設定に言及したが、これは外部IPに関連していないようです。同様に、ロードバランサーが設定されると、サービスのstatus.loadBalancer.ingress.ipフィールドは外部IPアドレスに設定されますが、これは構成可能な設定ではないようです。 別の方法として、Google Compute Engineコンソールで転送ルールを手動で作成して、静的IPアドレスからKubernetesによって設定されたターゲットプールにトラフィックを転送しようとしましたが、接続しようとすると接続が拒否されます。 私が望むことをする方法はありますか?選択した静的IPアドレスのGoogle KubernetesエンジンでKubernetesポッド(またはレプリケーションコントローラー)を公開する方法はありますか?


1
正常なバックエンドサービスにもかかわらず、Googleクラウドhttp(s)ロードバランサーが502を返す
2つのバックエンドにトラフィックを誘導するように構成されたGCE http(s)ロードバランサーがあります。-デフォルトバックエンド-別のホスト/パスルール(<host>:/*)を持つ2番目のバックエンド 両方のバックエンドは同じインスタンスグループに存在します-異なるNodePortを公開する2つのkubernetesサービスを実行するコンテナークラスター。 インスタンスグループには、公開された各NodePortに1つずつ、2つの名前付きポートがあります。 両方のバックエンドが正常であると報告しているにもかかわらず、2番目のバックエンドへのすべてのリクエストは502を返します。 サービス自体は問題ではありません-2番目のバックエンドの背後でサービスをデフォルトに切り替えると、正常に機能します。 注:この説明を最初に投稿してから大幅に更新/簡略化しました。はるかに単純な構成で問題を再現できるからです。

2
Kubernetes-GCEロードバランサーを使用してコストを削減することを回避できますか?
Gitlab-CIを使用して、GCEにKubernetesクラスターをデプロイしています。コストを最小限に抑えたい-ここに私の現在のセットアップがあります: ノードは3つのf1-microインスタンスで実行されます TraefikServiceTypeで構成された実行中のシステムポッドLoadBalancer 構成されたワイルドカードDNS 1 postgres ポッド ingressTraefik用に構成された1つのWebサーバーポッド 導入コストを削減したい。コストのほとんどはGCEロードバランサーにあります。GCEでロードバランサーの代わりにパブリックIPアドレスを使用する方法はありますか?その場合、(静的IPを予約する代わりに)クラスタに割り当てられたIPアドレスを利用できますか? 言い換えれば、ロードバランサなしでGCEを使用して、エフェメラルIPをKubernetesサービスに関連付ける方法はありますか? GCEで一般的にコストを削減するために、別の方法で実行できる他の構成はありますか?

1
GKEログでのKubernetes OOMKilledイベントの検出
ポッドを調べると、次のようなOOMKilledイベントのインストルメンテーションを設定したいと思います。 Name: pnovotnak-manhole-123456789-82l2h Namespace: test Node: test-cluster-cja8smaK-oQSR/10.x.x.x Start Time: Fri, 03 Feb 2017 14:34:57 -0800 Labels: pod-template-hash=123456789 run=pnovotnak-manhole Status: Running IP: 10.x.x.x Controllers: ReplicaSet/pnovotnak-manhole-123456789 Containers: pnovotnak-manhole: Container ID: docker://... Image: pnovotnak/it Image ID: docker://sha256:... Port: Limits: cpu: 2 memory: 3Gi Requests: cpu: 200m memory: 256Mi State: Running Started: Fri, 03 …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.