タグ付けされた質問 「kubernetes」

Kubernetesは、Dockerコンテナー用のオープンソースのオーケストレーションシステムです。計算クラスタ内のノードへのスケジューリングを処理し、ワークロードをアクティブに管理して、それらの状態がユーザーが宣言した意図と一致するようにします。「ラベル」と「ポッド」の概念を使用して、アプリケーションを構成するコンテナを論理ユニットにグループ化し、管理と検出を容易にします。

3
KubernetesはContainerCreatingでスタックします
作成を実行した後、Kubernetesクラスターのポッドが「ContainerCreating」でスタックしています。なぜ動かないのかを診断するために、この操作のログを見るにはどうすればいいですか?kubectl logsコンテナは非保留状態である必要があるため、機能していないようです。
100 kubernetes 

4
Kubernetesでスワップを無効にする理由
Kubernetes 1.8以降、ノードでスワップを無効にする(またはに設定--fail-swap-onするfalse)必要があるようです。 Kubernetesがスワップの無効化を主張する技術的な理由を見つけることができません。これはパフォーマンス上の理由によるものですか?セキュリティ上の理由?この理由が文書化されていないのはなぜですか?
35 kubernetes  swap 

3
kubernetesジョブを再実行することは可能ですか?
次のKubernetesジョブ構成があります。 --- apiVersion: batch/v1 kind: Job metadata: name: dbload creationTimestamp: spec: template: metadata: name: dbload spec: containers: - name: dbload image: sdvl3prox001:7001/pbench/tdload command: ["/opt/pbench/loadTpcdsData.sh", "qas0063", "dbc", "dbc", "1"] restartPolicy: Never imagePullSecrets: - name: pbenchregkey status: {} kubectl create -f dbload-deployment.yml --recordジョブを実行してポッドが作成されると、Dockerコンテナーが完了するまで実行され、次のステータスが表示されます。 $ kubectl get job dbload NAME DESIRED SUCCESSFUL AGE …

3
kubernetesクラスター内のコンテナーがいつ/ if /なぜ再起動するかを確認するにはどうすればよいですか?
google container engineで遊ぶための単一ノードkubernetesクラスターがあります。 2回、私がホストしている小さな個人Webサイトが数分間オフラインになりました。コンテナのログを表示すると、通常の起動シーケンスが最近完了したことがわかります。そのため、コンテナが死んだ(または強制終了された?)ため、再起動したと考えられます。 この出来事の方法と理由をどのように把握できますか? コンテナが予期せず起動/停止するたびにアラートを受け取る方法はありますか?

5
ロードバランサーなしでGoogle Container Engineのポート80および443を公開する
現在、小さな趣味のプロジェクトに取り組んでおり、準備ができたらオープンソースを作成します。このサービスはGoogle Container Engine上で実行されています。GCEを選んだ理由は、構成の手間を避け、コストが手頃で、新しいことを学ぶためです。 ポッドは正常に動作LoadBalancerしています。ポート80および443でサービスを公開するタイプのサービスを作成しました。これは完全に機能します。 しかし、LoadBalancerサービスごとに新しいGoogle Compute Engineロードバランサーが作成されることを発見しました。このロードバランサーは非常に高価であり、単一のインスタンスの趣味のプロジェクトでは本当にやり過ぎです。 コストを削減するために、ロードバランサーなしでポートを公開する方法を探しています。 私が今までに試したこと: NodePortサービスを展開します。残念ながら、30000未満のポートを公開することは許可されていません。 Ingressをデプロイしますが、これによりロードバランサーも作成されます。 無効にしようとしましたHttpLoadBalancing(https://cloud.google.com/container-engine/reference/rest/v1/projects.zones.clusters#HttpLoadBalancing)が、ロードバランサーを作成します。 ロードバランサーなしでGoogle Container Engineの単一インスタンスのポート80と443を公開する方法はありますか?

1
展開の作成時に使用されるspec-selector-matchLabelsとは何ですか?
Kubernetesドキュメントから: セレクターフィールドは、デプロイが管理するPodを見つける方法を定義します。 ただし、展開を作成するとき、展開の一部としてポッドテンプレートを既に指定しています。では、なぜセレクターも必要なのでしょうか? それは、ポッドがすでに個別に開始されているサービスのように使用されることになっていますが、後で一緒に管理される展開の傘下に置かれますか?
18 kubernetes 

4
Kubernetesの展開仕様で環境変数を使用する
現在Deployment.yaml、サービスのデプロイにはKubernetes仕様を使用しています。仕様には、特定のIPアドレスへの逐語的な参照が含まれています(<static-ip-address>以下のようにマークされています)。 spec: type: LoadBalancer loadBalancerIP: <static-ip-address> パスワードやIPアドレスなどの情報をリモートGitリポジトリにプッシュするのが心配です。これを回避するには、環境変数を使用します。たとえば、展開仕様と実際の展開では、おおよそ次のようになります。 spec: type: LoadBalancer loadBalancerIP: ${SERVICE_ADDRESS} そして export SERVICE_ADDRESS=<static-ip-address> kubectl create -f Deployment.yaml 明らかに、この特定の構文はまだ機能しません。しかし、このようなものは可能ですか? 別のプロビジョニングツールに頼らないほうがいいです。SecretsとConfigMapsは有望に見えますが、明らかにこの目的に合った方法で消費することはできません。それで定義された静的IPアドレスを直接参照できればgcloud compute addresses create service-address最高です。

2
Google Kubernetes EngineでKubernetesロードバランサーの外部IPアドレスを選択する方法
Google Kubernetes Engineを使用してWebアプリをデプロイしていますが、使用するドメイン名がGoogle Cloud Platformの同じプロジェクトの一部として制御する既存の静的IPアドレスのロードバランサーを介してアクセスできるようにしたいすでにこのIPを指している。 ポッドに使用したyamlファイルは次のとおりです。 apiVersion: v1 kind: Pod metadata: name: my-pod labels: app: my-app spec: containers: - name: my-container image: gcr.io/my-project/my-app:latest 次を使用してロードバランサーを設定できます。 apiVersion: v1 kind: Service metadata: name: my-load-balancer spec: ports: - port: 80 targetPort: 80 selector: app: my-app type: LoadBalancer これにより、アプリにアクセスできる外部IPが提供されますが、必要なIPを使用するように構成する方法が見つかりません。サービスマニュアルには spec.clusterIP設定に言及したが、これは外部IPに関連していないようです。同様に、ロードバランサーが設定されると、サービスのstatus.loadBalancer.ingress.ipフィールドは外部IPアドレスに設定されますが、これは構成可能な設定ではないようです。 別の方法として、Google Compute Engineコンソールで転送ルールを手動で作成して、静的IPアドレスからKubernetesによって設定されたターゲットプールにトラフィックを転送しようとしましたが、接続しようとすると接続が拒否されます。 私が望むことをする方法はありますか?選択した静的IPアドレスのGoogle KubernetesエンジンでKubernetesポッド(またはレプリケーションコントローラー)を公開する方法はありますか?

1
失敗したコンテナの再起動のバックオフ-Minikubeでのポッドの同期エラー
ポッドを作成しようとすると、このエラーが発生します。Ubuntu、Alpineなどの非常に一般的なイメージでも発生しています。私はKubernetesを初めて使用し、Minikubeノード(バージョンv0.24.1)を使用しています コマンド: kubectl run ubuntu --image==ubuntu エラー: Back-off restarting failed container - Error syncing pod バージョン: Client Version: version.Info{Major:"1", Minor:"8", GitVersion:"**v1.8.0**", GitCommit:"6e937839ac04a38cac63e6a7a306c5d035fe7b0a", GitTreeState:"clean", BuildDate:"2017-09-28T22:57:57Z", GoVersion:"go1.8.3", Compiler:"gc", Platform:"linux/amd64"} Server Version: version.Info{Major:"1", Minor:"8", GitVersion:"**v1.8.0**", GitCommit:"0b9efaeb34a2fc51ff8e4d34ad9bc6375459c4a4", GitTreeState:"clean", BuildDate:"2017-11-29T22:43:34Z", GoVersion:"go1.9.1", Compiler:"gc", Platform:"linux/amd64"} Podコマンドの説明: Name: ubuntunew-7567df64b8-mwc7x Namespace: default Node: minikube/192.168.99.102 Start Time: Tue, 31 Jul …
15 kubernetes 

3
Kubernetes Podで特定のUIDを持つボリュームをマウントする方法は?
だから、Kubernetes でこのイメージに基づいてNexusを実行しようとしていますが、次のように失敗します: mkdir: cannot create directory '../sonatype-work/nexus3/log': Permission denied mkdir: cannot create directory '../sonatype-work/nexus3/tmp': Permission denied Java HotSpot(TM) 64-Bit Server VM warning: Cannot open file ../sonatype-work/nexus3/log/jvm.log due to No such file or directory ドキュメントから、プロセスはUID 200で実行され、ボリュームはこれらの権限でマウントする必要があると書かれています。 A persistent directory, /nexus-data, is used for configuration, logs, and storage. This directory needs to …

4
新しく作成されたAKSクラスターに割り当てられたサービスプリンシパルを見つける方法
標準を使用してAKSクラスターを作成しましたaz aks create ... --ssh-key-value ...。https://docs.microsoft.com/en-us/azure/aks/kubernetes-service-principalによると、 AKSクラスターが作成され、既存のサービスプリンシパルが指定されていないため、クラスターのサービスプリンシパルが作成されます。 作成したSPはどこにありますか?ありがとう
13 azure  kubernetes 

1
Kubernetesクラスターの正常なシャットダウン
Juju 2.0と公式の正規Kubernetesチャームを使用してインストールされた4ノードKubernetesクラスターがあります。この非常にローカルでプライベートなインストールの唯一の目的は、開発とテストです。 このインストールの最大の文書化された問題の1つは、正常なサーバーシャ​​ットダウン手順の完全な欠如です。etcdノードがダウンするだけで、設定全体が失われます。 Kubernetesの自動化されたバックアップ/復元スクリプト/手順を探すのにかなりの時間を費やしました。私たちが抱えている問題に対する最も頻繁な答えは、起動するたびにJujuを使用してサーバーをゼロからデプロイすることです。与えられた30から35分。展開時間は魅力的なソリューションとは思えませんか? この問題の実行可能な解決策はありますか?


3
Amazon EKSでのHorizo​​ntalPodAutoscaling
Amazon EKSでHorizo​​ntalPodAutoscalerをセットアップしようとすると、TARGETS列が常に表示され<unknown>/50%、HPAを説明すると、 警告FailedGetResourceMetric 17s(x50 over 1h)horizo​​ntal-pod-autoscalerはリソースCPUのメトリックを取得できません:リソースメトリックAPIからメトリックを取得できません:サーバーは要求されたリソースを見つけることができませんでした(get pods.metrics.k8s.io) 他のサイトで、使用について言及している同様の問題に関する複数の投稿を見つけました --horizontal-pod-autoscaler-use-rest-clients kube-controller-managerでが、EKSクラスターのkube-controller-managerの設定を変更する方法は見つかりません。管理用のマスターノードへのSSHおよびkube-controller-managerは、システムのどこにもリソースとしてリストされていません。 https://github.com/kubernetes-incubator/metrics-serverの指示に従ってmetrics-serverを手動で設定しようとしましたが、その場合、EKSはAPIの認証に必要な構成マップを提供しないことが示されています拡張機能Could not create the API server: configmaps "extension-apiserver-authentication" not found

4
Kubernetesは常に503サービスを提供しますが、複数のTLS Ingressでは一時的に利用できません
Amazon Web Servicesでkopsによってkubernetesクラスターをセットアップしています 2つのサイトを設定しています。1つはSSL / TLS / httpsで保護され、もう1つはhttpのみです。どちらもWordpressサイトです。サイトIDを保護するためにドメインが変更されました 入力構成: apiVersion: extensions/v1beta1 kind: Ingress metadata: name: my-rules spec: tls: - hosts: - site1.com secretName: site1-tls-secret - hosts: - www.site1.com secretName: site1-tls-secret rules: - host: site1.com http: paths: - path: / backend: serviceName: site1 servicePort: 80 - host: www.site1.com http: paths: - …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.