タグ付けされた質問 「amazon-web-services」

アマゾンウェブサービス(AWS)は、「クラウド内」で信頼性が高く、スケーラブルで安価なコンピューティングプラットフォームを形成する一連のサービスを提供します。特定のWebサービスについて質問がある場合は、そのタグ(例:amazon-ec2)を尋ねることを検討してください。

2
2つのAWSインスタンス間のStrongswan VPNトンネルが接続されない
Ubuntu 14.04.2 LTSを実行している2つのAmazon AWS EC2インスタンス間にStrongSwan 5.1.2を使用してVPNトンネルをセットアップしようとしています。StrongSwanを使用する前は、Amazon RedHat AMIでopen(libre)swanを使用していましたが、問題なく動作しました。どういうわけか、StrongSwanのためにIKEをここで動作させることさえできません。私はAWS構成を3回チェックしましたが、すべて問題ないようです。StrongSwan構成に問題があるはずです。 以下に示すように、私が取得しているエラーは、「ソケットへの書き込みエラー:無効な引数」です。私はオンラインで見ましたが、これに対する解決策を本当に見つけることができません。strongswan ipsec.confが正しく構成されていないと確信しています。 これが私が取り組んでいるものです: Instance #1: N.Virginia - 10.198.0.164 with public EIP 54.X.X.X Instance #2: Oregon - 10.194.0.176 with public EIP 52.Y.Y.Y (単純な)トポロジは次のとおりです。 [ Instance #1 within N.Virginia VPC <-> Public internet <-> Instance #2 within Oregon VPC ] 次のAWS構成が正しいことを確認しました: Security groups permit …

2
AWSでsftpインスタンスの負荷を分散する方法
でsftpサーバーの負荷を分散できることを知りたいですAWS。2台のサーバーがあり、各サーバーがs3fs-fuse同じサーバーをS3 bucketマウントポイントにマウントするために使用しています。私のec2インスタンスはどちらもマウントポイントに対して読み取り/書き込みを行うことができ、からはS3、両方のサーバーのファイルを表示できます。 私が探しているのは、SFTPファイルを転送しAmazon S3、ファイルを保存するために使用することです。ファイルは毎日アップロードされ、ダウンロードされます。 https://github.com/s3fs-fuse/s3fs-fuse 次のステップとして、sftpサーバーの負荷を分散する方法を知りたいので、ユーザーが特定のIPアドレスに接続すると、sftpサーバーの1つにリダイレクトされます。を調べましたがelastic load balancers、特定のポートしか許可していないようです。私も調査しましたがHAProxy、そのソリューションがどれほど安全かはわかりません。私はHIPAAコンプライアンスを考慮に入れなければなりません。ベンダーがサポートしていないため、ロードバランサーは静的IPアドレスである必要がありますDNS hostnames。

2
AWS CloudFormationの条件付きプロパティ
EC2インスタンスを作成するためのAWS CloudFormationテンプレートがあります。しかし、それらのいくつかは特定のものを必要PrivateIpAddressとし、私はそれをテンプレートに組み込む方法を理解するのに苦労しています。 とりあえず、テンプレートパラメータPrivateIPと条件を作成していRequestedPrivateIPます。ここまでは順調ですね。しかし、それをAWS::EC2::Instanceリソース仕様に組み込む方法がわかりません。私はこれを試しました: "PrivateIpAddress": { "Fn::If": [ "RequestedPrivateIP", { "Ref": "PrivateIP" }, "" <-- This doesn't work ] }, しかし、RequestedPrivateIPがfalseの場合は失敗します CREATE_FAILED AWS::EC2::Instance NodeInstance Invalid addresses: [] オプションで静的プライベートIPを割り当て、指定がない場合はAWSに任せて動的IPを設定する方法はありますか?

2
VPCでDockerを実行し、別のVPCマシンからコンテナーにアクセスする
AWS VPCでdockerを実行中に問題が発生します。 これが私のセットアップです:VPCで2つのマシンを実行しています: 10.0.100.150 10.0.100.151 どちらにもエラスティックIPが割り当てられており、どちらも同じインターネット対応サブネットで実行されています。 10.0.100.150マシンのコンテナのコンテナで静的ファイルを提供するWebサーバーを実行しているとしましょう。 IP:172.17.0.2 ポート8111は、マシンの8111ポートで転送されます。 ローカルマシン(または別の非VPCマシンもVPCで実行されていないEC2インスタンスを試しました)から静的ファイルにアクセスしようとしていますが、問題なく動作します。 他のマシン(10.0.100.151)からファイルにアクセスしようとすると、ハングします。私はwgetを使用してファイルをプルしています。 tcpdumpとngrepを使用してデバッグしようとしたところ、リクエストがコンテナに到達したことがわかりました。ホストマシンでngrepを実行すると、リクエストは送信されますが、応答が返されません。コンテナーでngrepを実行すると、要求が送信され、応答が返されます。 複数のiptablesセットアップ(ポストルーティングを有効にし、ポートを手動で転送するなど)を試しましたが、成功しませんでした。 どんな方法でも助けてください-デバッグの指示でさえ大歓迎です。 ありがとう!

3
SSDインスタンスタイプのルートデバイス。SSDとEBSの混乱
私はもともとt1.micro linuxから作成されたAMIを持っています。このAMIの「ルートデバイスタイプ」はEBS(8 GB)であり、私のWebアプリケーションソフトウェアはこのルートボリュームに「ベイク」されています。 次に、このAMIからm3.mediumインスタンスを起動したいと思いますが、4GB SSDの「インスタンスストレージ」があります。 新しく起動したm3.mediumインスタンスはSSDストレージを利用しますか?または、「インスタンスストア」をルート「ルートデバイスタイプ」として新しいAMIを作成する必要がありますか? 同様に...「Amazon Linux AMI 2013.09.2」を使用して最初からm3.mediumを起動しようとすると、起動ウィザードを使用して削除できないデフォルトで8GBのルートEBSボリュームが追加されます。 ここで何が欠けていますか?

2
EC3 IAMロールにS3バケットへの読み取りアクセスを付与する
AWS Elastic Beanstalk Railsアプリがあり、S3バケットからいくつかのファイルをプルするようにconfigスクリプトで構成しています。アプリケーションを起動すると、ログに次のエラーが表示され続けます(セキュリティのためにバケット名が変更されています)。 Failed to retrieve https://s3.amazonaws.com/my.bucket/bootstrap.sh: HTTP Error 403 : <?xml version="1.0" encoding="UTF-8"?> <Error><Code>AccessDenied</Code><Message>Access Denied</Message> 設定ファイル: packages: yum: git: [] files: /opt/elasticbeanstalk/hooks/appdeploy/pre/01a_bootstrap.sh: mode: "00755" owner: root group: root source: https://s3.amazonaws.com/my.bucket/bootstrap.sh Elastic Beanstalk環境は、aws-elasticbeanstalk-ec2-roleインスタンスの役割としてIAMの役割で設定されています。この役割には次のポリシーがあります。 { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:Get*", "s3:List*" ], "Resource": "arn:aws:s3:::my.bucket/*" } …

2
インスタンス作成時の.pemファイルがない場合、Amazon EC2サーバーインスタンスにSSHで接続できますか?
稼働中のいくつかのAmazon EC2サーバーで作業しており、サーバーにSSH接続する必要があります。サーバーが最初にセットアップされたときに生成されたキーはありません(他の誰かがここに来る前に作成しました)。キーファイルがなくてもサーバーにアクセスできますか? FWIWこれまでに、EC2ダッシュボードで新しいキーペアを生成するなど、SSHを使用してさまざまなことをボックスに試しましたが、何も機能していないようです。このAmazon AWSサポートの投稿とこの回答は、現在のサーバーのAMIを作成し、それを使用してまったく新しいEC2サーバーインスタンスをインスタンス化する(.pemファイルを生成するためだけに)場合を除き、運が悪いことを示しているようです当時)。これが、現時点でボックスに入る唯一の方法ですか?

2
Elastic Load Balancerは異なるサイズのインスタンスにトラフィックを正しく分散できますか
Elastic Load Balancerを調べているところです。私が理解しているように、彼らはラウンドロビンを行い、背後のサーバーへの接続を均等に分散しています。では、ELBの背後に異なるサイズのインスタンスがある場合はどうなりますか?より大きなインスタンスにさらに接続を送信しますか、それとも接続を均等に分散し続けますか?つまり、実際には異なるサイズのインスタンスを使用するべきではありません。

1
EBSの使用がボトルネックになるのはどの時点ですか?
EBSボリュームによってサポートされているEC2インスタンスを使用して、Amazonでホストされているサイトがあります。週末には、トラフィックが急上昇し、インスタンスを大きくすることでかなり役立ちます。CPU使用率が100%に急上昇し、サーバーが応答しなくなったことはもうありません。 しかし、ディスクの読み取りも非常に高いことに気づきます(どうしようもない、私は考えていません)。ディスクが維持できないため、どの時点で何らかの障害が発生するのでしょうか。アップ? 添付のスクリーンショットからわかるように、週末は最大80MB /分でした。AWSの経験があり、EBSがボトルネックになるために、どの時点で複数の負荷分散インスタンスに移動する必要があるか知っていますか?

1
AWS SSL証明書がElastic Beanstalkのコンソールに表示されない
AWSのサービスを使用して、Elastic Beanstalkインスタンスを指すサブドメイン用の新しいSSL証明書を作成しました。証明書マネージャーに正しく表示されます... しかし、EBインスタンスの[ロードバランサー]ドロップダウンには表示されません... ドキュメント(Elastic Beanstalk環境のロードバランサーをHTTPSを終了するように構成する)によると、「SSL証明書IDドロップダウンメニューから証明書を選択する」だけですが、そこにはありません。 CLIを使用して.configファイルからSSL証明書を追加しようとしたところ、次のエラーが発生しました。 エラー:サービス:AmazonCloudFormation、メッセージ:「awseb-e-upxkf5kr8b-stack」という名前のスタックは操作を中止しました。現在の状態: 'UPDATE_ROLLBACK_IN_PROGRESS'理由:nullエラー:次の名前のロードバランサーの更新:awseb-eu-AWSEBLoa-xxxが失敗しました理由:キーのサーバー証明書が見つかりません:arn:aws:acm:eu-west-1:xxx:certificate / xxxx 何が悪いのでしょうか?

2
Jenkins PipelineにAWSクレデンシャルをどのように付与しますか?
私のジェンキンスパイプラインに次の設定があります s3Upload( file:'ok.txt', bucket:'my-buckeck', path:'file.txt') 問題は、s3Upload関数がjenkinsに保存したAWSアクセスキーを取得しないことです 私は次のコードで結ばれました withAWS(profile:'Test Publisher') { s3Upload( file:'ok.txt', bucket:'my-buckeck', path:'file.txt') } ジェンキンスの私のS3プロファイルはそのようなものです。それでもプロファイルファイルを取得してもエラーが見つかりませんでした。s3Upload関数を使用してjenkinsからs3にファイルをアップロードするにはどうすればよいですか?

2
方法:エラスティックコンテナーサービスでのDockerized MongoDBレプリケーション
Node.jsアプリと、AWS ECSで実行されているMongoDBデータベースがあります。現在取得しているセットアップは、2つのELBと2つのインスタンスで構成されており、それぞれがDockerコンテナーとそれに割り当てられたサービス(node / mongo)を実行しています。 Elastic Load Balancer -> Dockerized Node -> Elastic Load Balancer -> Dockerized MongoDB ここで入手できるMongoDBの公式Dockerイメージを実行しています:https : //registry.hub.docker.com/_/mongo/ DockerとECSを使用してMongoDBのreplicaSetをデプロイするにはどうすればよいですか?各レプリカは異なるインスタンスで実行されていますか?

2
ElasticBeanstalk:インスタンスタイプとセキュリティグループを設定ファイルから設定する
.ebextensions/*.configアプリケーションバンドルのルートにあるファイルを介してインスタンスタイプとセキュリティグループを定義するのに問題があります。 簡単に言うと、次のような2つの構成ファイルがあります。 .ebextensions/01-options.config: option_settings: [...] - namespace: 'aws:elasticbeanstalk:application:environment' option_name: CONFIG_FILE_ONE value: '01-options.config' [...] と.ebextensions/02-app-test-env.config: option_settings: - namespace: 'aws:elasticbeanstalk:application:environment' option_name: NODE_ENV value: 'Test' - namespace: 'aws:elasticbeanstalk:application:environment' option_name: CONFIG_FILE_TWO value: '02-app-test-env' - namespace: aws:autoscaling:launchconfiguration option_name: InstanceType value: t2.micro - namespace: aws:autoscaling:launchconfiguration option_name: SecurityGroups value: sg-ys75dfs2 今、環境変数が設定されているので、両方の構成ファイルを読み取っていますが、セキュリティグループとインスタンスタイプが設定されていません-環境を再構築しても、インスタンスはt1.microデフォルトのセキュリティグループと同じように作成されます-私の設定適用されていません。 ここで何が欠けていますか?.configファイルを使用してインスタンスタイプを定義するにはどうすればよいですか?

2
AWS認証情報を個人のマシンに安全に保存する
AWS認証情報を個人のマシンに安全に保存するにはどうすればよいですか? 詳細に: 私たちのチームの誰もが、管理タスクを実行するためにAWSセキュリティ認証情報を必要とします(認証情報はロールによって分離されます)。これらの資格情報は通常、ディスク上のいくつかの構成ファイルにプレーンテキストで格納されます。これは非常に安全ではないと思います。特に、資格情報がチームメンバーに分散され、最終的にバックアップなどに使用されることを考えると、 私はこれらの資格情報を暗号化された形式で保存することを強く望みます(たとえば、sshキーに似ています)。自動化する方法はありますか?または、たとえばopensslを使用してデータを暗号化するbashスクリプトをハッキングする必要がありますか? EC2インスタンスの資格情報を保護する方法については、Webに多くの情報があります。このAmazon IAMロールの機能さえありますが、EC2にのみ適用されます。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.