タグ付けされた質問 「google-compute-engine」

Google Compute Engineは、スケーラブルで柔軟な仮想マシンコンピューティング機能をクラウドで提供します。

2
公開鍵が利用できないため、次の署名を検証できませんでした:NO_PUBKEY 6A030B21BA07F4FB
私の環境: # uname -a Linux app11 4.9.0-5-amd64 #1 SMP Debian 4.9.65-3+deb9u2 (2018-01-04) x86_64 GNU/Linux # # cat /etc/*release PRETTY_NAME="Debian GNU/Linux 9 (stretch)" NAME="Debian GNU/Linux" VERSION_ID="9" VERSION="9 (stretch)" ID=debian HOME_URL="https://www.debian.org/" SUPPORT_URL="https://www.debian.org/support" BUG_REPORT_URL="https://bugs.debian.org/" # 実行しようとするとapt-get update、エラーがたくさん発生します: # apt-get update Ign:1 http://deb.debian.org/debian stretch InRelease Hit:2 http://security.debian.org stretch/updates InRelease Hit:3 http://deb.debian.org/debian stretch-updates InRelease Hit:4 …

5
ロードバランサーなしでGoogle Container Engineのポート80および443を公開する
現在、小さな趣味のプロジェクトに取り組んでおり、準備ができたらオープンソースを作成します。このサービスはGoogle Container Engine上で実行されています。GCEを選んだ理由は、構成の手間を避け、コストが手頃で、新しいことを学ぶためです。 ポッドは正常に動作LoadBalancerしています。ポート80および443でサービスを公開するタイプのサービスを作成しました。これは完全に機能します。 しかし、LoadBalancerサービスごとに新しいGoogle Compute Engineロードバランサーが作成されることを発見しました。このロードバランサーは非常に高価であり、単一のインスタンスの趣味のプロジェクトでは本当にやり過ぎです。 コストを削減するために、ロードバランサーなしでポートを公開する方法を探しています。 私が今までに試したこと: NodePortサービスを展開します。残念ながら、30000未満のポートを公開することは許可されていません。 Ingressをデプロイしますが、これによりロードバランサーも作成されます。 無効にしようとしましたHttpLoadBalancing(https://cloud.google.com/container-engine/reference/rest/v1/projects.zones.clusters#HttpLoadBalancing)が、ロードバランサーを作成します。 ロードバランサーなしでGoogle Container Engineの単一インスタンスのポート80と443を公開する方法はありますか?

6
GCEにsshできません:「Permission denied(publickey)」
Google Compute EngineでBitnamiを介してVMを作成しました。以前は、Bitnami Webインターフェイスを使用してsshを実行できました。Macのターミナル経由でsshを試みましたが、Permission denied (publickey)エラーが発生し続けました。その後、サーバーとMac上のすべてのキーを削除し、bitnamiからpemファイルをダウンロードし、-iオプションを使用して接続しましたが、それでも問題は解決しません。 ssh -i bitnami-gce.pem xxx@1xx.1xx.5x.1xx -v 完全なデバッグ情報: OpenSSH_6.2p2, OSSLShim 0.9.8r 8 Dec 2011 debug1: Reading configuration data /etc/ssh_config debug1: /etc/ssh_config line 20: Applying options for * debug1: Connecting to 1xx.1xx.5x.1xx [1xx.1xx.5x.1xx] port 22. debug1: Connection established. debug1: identity file bitnami-gce.pem type -1 debug1: identity file …

5
Google Cloud IN_USE_ADDRESSESの割り当てを超えました。
使用中の8/8があるため、Google Compute Engine APIの使用中のIPアドレスをリリースする方法を見つけるために過去3時間を費やしています。私はグーグルでマニュアルを読みましたが、コンソールのどこにでもそれをリリースする方法はありません。Railsアプリをセットアップしようとしています。コンパイル時にDBに正しいソケットを提供しなかったため、エラーが発生しました(実際にはここでは重要ではありません)。立ち往生したら、端末でCtrl + Cを押してリリースしましたが、これが問題だと思います。-私はGoogle Cloudを初めて使用しているため、推測することしかできません。 エラーメッセージ: ERROR: (gcloud.app.deploy) Error Response: [400] The following quotas were exceeded: IN_USE_ADDRESSES (quota: 8, used: 8 + needed: 2). https://appengine.googleapis.com/v1/apps/workepics/services/default/versions?alt=json コンソールで視覚化したもの: 計算エンジンのコンソール内をクリックすると、作成するかどうかを尋ねられるだけです。他のオプションはありません。 助けていただければ幸いです!ありがとうございました。

2
Google Compute EngineでHTTP(S)ロードバランサーを使用する場合、すべてのHTTPトラフィックをHTTPSにリダイレクトします
2つのグローバル転送ルール(HTTPおよびHTTPS)を使用して、Google Compute EngineでHTTP / HTTPSロードバランシングを設定しています。各ルールは、HTTPのプロトコルを持つバックエンドサービスを指します。 すべてのリクエストをhttp://*に行きたいですhttps://*。 ロードバランサーがHTTPを介してバックエンドサービスと通信するため、バックエンドサービスでnginxを取得してを返送できるとは思いません301。 私はグーグルコンピュートで12の小さな調整を試してみましたが、それらはすべてグーグルコンピュートがを返すことになり502ます。 他の誰かがこれを以前に設定したことがあると思います。正しい方向へのヒントやポインタは大歓迎です。

2
Google Kubernetes EngineでKubernetesロードバランサーの外部IPアドレスを選択する方法
Google Kubernetes Engineを使用してWebアプリをデプロイしていますが、使用するドメイン名がGoogle Cloud Platformの同じプロジェクトの一部として制御する既存の静的IPアドレスのロードバランサーを介してアクセスできるようにしたいすでにこのIPを指している。 ポッドに使用したyamlファイルは次のとおりです。 apiVersion: v1 kind: Pod metadata: name: my-pod labels: app: my-app spec: containers: - name: my-container image: gcr.io/my-project/my-app:latest 次を使用してロードバランサーを設定できます。 apiVersion: v1 kind: Service metadata: name: my-load-balancer spec: ports: - port: 80 targetPort: 80 selector: app: my-app type: LoadBalancer これにより、アプリにアクセスできる外部IPが提供されますが、必要なIPを使用するように構成する方法が見つかりません。サービスマニュアルには spec.clusterIP設定に言及したが、これは外部IPに関連していないようです。同様に、ロードバランサーが設定されると、サービスのstatus.loadBalancer.ingress.ipフィールドは外部IPアドレスに設定されますが、これは構成可能な設定ではないようです。 別の方法として、Google Compute Engineコンソールで転送ルールを手動で作成して、静的IPアドレスからKubernetesによって設定されたターゲットプールにトラフィックを転送しようとしましたが、接続しようとすると接続が拒否されます。 私が望むことをする方法はありますか?選択した静的IPアドレスのGoogle KubernetesエンジンでKubernetesポッド(またはレプリケーションコントローラー)を公開する方法はありますか?

2
セキュリティのためにGCEからSSHキーを削除することをGoogleが推奨するのはなぜですか?
以下のGoogleのドキュメントへの参照は当てはまりません。 SSHを保護するために、GCEインスタンスからSSHキーを削除することをお勧めします。それは私には意味がありません。キーはセキュリティのためにありますよね?キーを削除すると、SSHDが機能しなくなります。私はおそらく彼らのポイントを見逃しています。誰かがこれによって何を意味するのか説明できますか? SSHホストキーを削除する インスタンスでsshホストキーを使用しないでください。次のように削除します。 rm /etc/ssh/ssh_host_key rm /etc/ssh/ssh_host_rsa_key* rm /etc/ssh/ssh_host_dsa_key* rm /etc/ssh/ssh_host_ecdsa_key*

2
df -hは10GBしか表示しませんが、GCEインスタンスに500GBのディスクを割り当てました
gccをコンパイルしようとしている間、ディスク容量が不足し続け、ますます大きなディスクサイズを作成し続け、5時間のコンパイル後、ディスク容量が不足します。ディスクのサイズを4回変更し、500GBのディスクで4回目のコンパイル手順を再開しました。 df -h使用量を確認するために実行したとき、9.7GBとしか表示されませんが、100%と見なされます。 別のディスクがあるかもしれないと思ったが、私は見ているだけでsda、そのパーティション ls /dev/sd* /dev/sda /dev/sda1 私のディスクのサイズdfは実際には500GBで、間違って報告しているだけです(この場合、gccをコンパイルすると500GB全体が表示されます)か、Google Cloudのダッシュボードが間違って報告し、正しくdf報告してgccをコンパイルしても500GBを超えませんか? いずれにせよ、500GBを利用するために何かをすることになっていない限り(これは直感に反します)、これはバグだと思いますか? (投稿する前に検索しましたが、AWS関連の問題しか見ていません) 更新-lsblkはそれを説明します: lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 500G 0 disk └─sda1 8:1 0 10G 0 part /

8
OpenVPNを使用したGoogle Compute Engine上のVPNサーバー
私はすべてのトラフィックのVPNサーバーとしてGoogle Compute Engineサーバーを使用しようとしています(ロシアに住んでいます。ここでは検閲に問題があります)。 GCE上のVPNに関するミニチュートリアルがありますが、OpenVPNではなく、GCE内の2つのサーバー間のネットワークに関するものです。 DebianでOpenVPNを使用してVPNを設定することについて、別のチュートリアルからすべての手順を実行しました。クライアントからVPNに接続できますが、接続を開くことができません(グーグルにpingすることさえできません)。サーバーでは、通常どおりすべてをpingしてダウンロードできます。 Linodeに同じセットアップのVPNがあり、正常に動作します。したがって、問題はGCEネットワークルーティングまたはファイアウォールルールにあります。 私は多くのバリエーションを試しましたが、何も機能しません。設定を見て、何を変更すべきか教えてください。 //問題が解決されたため、設定行が削除されました//

1
正常なバックエンドサービスにもかかわらず、Googleクラウドhttp(s)ロードバランサーが502を返す
2つのバックエンドにトラフィックを誘導するように構成されたGCE http(s)ロードバランサーがあります。-デフォルトバックエンド-別のホスト/パスルール(<host>:/*)を持つ2番目のバックエンド 両方のバックエンドは同じインスタンスグループに存在します-異なるNodePortを公開する2つのkubernetesサービスを実行するコンテナークラスター。 インスタンスグループには、公開された各NodePortに1つずつ、2つの名前付きポートがあります。 両方のバックエンドが正常であると報告しているにもかかわらず、2番目のバックエンドへのすべてのリクエストは502を返します。 サービス自体は問題ではありません-2番目のバックエンドの背後でサービスをデフォルトに切り替えると、正常に機能します。 注:この説明を最初に投稿してから大幅に更新/簡略化しました。はるかに単純な構成で問題を再現できるからです。

3
中国がGoogle Compute Engineサーバーに接続しないようにする
私の会社には、北米でホストされているGoogle Compute Engineサーバーがあります。ポート11に要求を送信する非常に多くの中国のIPアドレスを取得しているため、イングレスの費用がかかります。当社のファイアウォールは、当社のアプリケーションにアクセスするビジネスがないため、すでに中国へのすべての接続をブロックしています。 これらの接続を完全に無視する方法や、帯域幅を使い果たしないようにブロックする方法はありますか?

2
Kubernetes-GCEロードバランサーを使用してコストを削減することを回避できますか?
Gitlab-CIを使用して、GCEにKubernetesクラスターをデプロイしています。コストを最小限に抑えたい-ここに私の現在のセットアップがあります: ノードは3つのf1-microインスタンスで実行されます TraefikServiceTypeで構成された実行中のシステムポッドLoadBalancer 構成されたワイルドカードDNS 1 postgres ポッド ingressTraefik用に構成された1つのWebサーバーポッド 導入コストを削減したい。コストのほとんどはGCEロードバランサーにあります。GCEでロードバランサーの代わりにパブリックIPアドレスを使用する方法はありますか?その場合、(静的IPを予約する代わりに)クラスタに割り当てられたIPアドレスを利用できますか? 言い換えれば、ロードバランサなしでGCEを使用して、エフェメラルIPをKubernetesサービスに関連付ける方法はありますか? GCEで一般的にコストを削減するために、別の方法で実行できる他の構成はありますか?

2
ファイルシステムを拡張した後、デバイスにスペースが残っていない
Google Compute CloudでVMを使用しています。ディスクを10Gから200Gに拡張しました。 私はここで正確な手順に従いました:https : //cloud.google.com/compute/docs/disks#repartitionrootpd 要約する: 私はfdiskを実行し、唯一のパーティションを削除し、フルサイズの新しいものを作成しました、同じ開始/新しい終了、同じデバイスID インスタンスを再起動しました 私はファイルシステムのサイズを変更しましたsudo xfs_growfs /(私はCentOS 7を実行しています) この後untar、/optサブディレクトリにある3.5Gアーカイブを数分後に終了しました。 Cannot mkdir: No space left on device スペースがここにあることを確認でき、(少なくとも私にとっては)どこでも使用できるはずです。 # df -h Filesystem Size Used Avail Use% Mounted on /dev/sda1 200G 13G 188G 7% / devtmpfs 1.9G 0 1.9G 0% /dev tmpfs 1.9G 0 1.9G 0% /dev/shm …

2
サーバーを再起動せずに新しい永続ディスクを追加するにはどうすればよいですか?
GCPで実行中のインスタンスがあり、そこに別の永続ディスクを追加したいと考えています。ただし、表示されません。 これn1-standard-1は、10 GBのストレージを持つインスタンスs03です(という名前)。別のストレージを作成disk-1してマウントしました。それから私は作成しましたdisk-2。 残念ながら、新しいls /dev/disk/by-idドキュメントは、こちらのドキュメントに記載されているようには表示されません。 システムを再起動してログを確認しましたdisk-2が、表示されない問題が見つかりません。何か案は?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.