タグ付けされた質問 「amazon-s3」

これは、Amazonのクラウドストレージサービスに関する質問です。

3
IPv6経由でAmazon S3静的ウェブサイトにアクセスする
Amazon Route 53でホストされているDNSを使用して、Amazon S3で静的ウェブサイトをホストしています。IPv4とIPv6を介してアクセスできるようにしたいです(時間があるため)。 Route 53 AWSマネジメントコンソールを使用AしてS3バケットの(IPv4)「エイリアス」レコードを追加すると、エンドポイントとして使用するS3バケットの名前を入力するよう求められます。AAAA(IPv6)「エイリアス」レコードを追加しようとすると、そのようなオプションは提供されません。 AAAA既存のAレコードを作成した後、クローンを作成して手動でレコードを設定しようとすると、エラーが発生しました。 A「エイリアス」レコードが適切なIPv4 IPアドレスをRoute 53 DNSに入れるという事実を知っています。 IPv6アドレスを手動で設定するのは怖いです。IPv6アドレスが残る保証はないと思うからです。Alias Target設定は、AmazonがStatic S3サイトに対して規定するものです。 したがって、私の質問は、Amazon AWSはIPv6を介したS3静的ウェブサイトへのアクセスをサポートしていますか?サポートしている場合、どのように設定できますか?

3
CloudFrontにS3からの最新のHTMLファイルを強制的にパススルーさせる
バックグラウンド S3で静的サイトをホストしており、CloudFrontが上部にあります。私が抱えている問題は、HTMLファイルにあります。 CloudFrontのFAQによると: Amazon CloudFrontはこれらのキャッシュ制御ヘッダーを使用して、そのファイルの更新バージョンのオリジンをチェックする必要がある頻度を決定します これまでにやったこと これを念頭に置いて、S3バケットにHTMLファイルを設定して、次のヘッダーを追加しました。 Cache-Control: no-cache, no-store, max-age=0, must-revalidate Expires: Fri, 01 Jan 1990 00:00:00 GMT myへの最初の呼び出しでsamplefile.htm、次の応答ヘッダーが表示されます(Content-Typeポイントを維持するために、明らかなヘッダー(例:)を除外しました: Cache-Control:no-cache, no-store, max-age=0, must-revalidate Date:Sat, 10 Dec 2011 14:16:51 GMT ETag:"a5890ace30a3e84d9118196c161aeec2" Expires:Fri, 01 Jan 1990 00:00:00 GMT Last-Modified:Sat, 10 Dec 2011 14:16:43 GMT Server:AmazonS3 X-Cache:Miss from cloudfront ご覧のとおり、Cache-Controlヘッダーがそこにあります。問題は、このファイルを更新して更新すると、キャッシュされたコンテンツ(最新のファイルではなく)を取得し、CloudFrontがキャッシュされたバージョンを提供していることが、応答ヘッダーを見ることでわかります。 X-Cache:Hit from …

3
サブドメインでwwwなしで動作するAmazon Route53を設定する方法
編集: Amazonはこれをサポートするようになりました。http://aws.typepad.com/aws/2012/12/root-domain-website-hosting-for-amazon-s3.html Amazon AWSのRoute53にドメイン構成があります 私のドメインでwwwなしでexec pingコマンド $ ping mydomain.com.br ping: cannot resolve domain.com.br: Unknown host 私のドメインでwwwを使用してpingコマンドを実行する $ ping www.domain.com.br PING s3-website-sa-east-1.amazonaws.com (177.72.245.6): 56 data bytes 64 bytes from 177.72.245.6: icmp_seq=0 ttl=244 time=25.027 ms 64 bytes from 177.72.245.6: icmp_seq=1 ttl=244 time=25.238 ms 64 bytes from 177.72.245.6: icmp_seq=2 ttl=244 time=25.024 ms ルート53->レコードセットの作成->名前:[] …

1
新しい「S3リクエストリクエストパフォーマンスの向上」の発表はどういう意味ですか
2018年7月17日に、最大のパフォーマンスを達成するためにすべてのS3オブジェクトキーの最初の文字をランダム化する必要がないことを説明するAWSの公式発表がありました:https : //aws.amazon.com/about-aws/whats-new / 2018/07 / amazon-s3-announces-increased-request-rate-performance / Amazon S3がリクエストレートパフォーマンスの向上を発表 投稿日:2018年7月17日 Amazon S3はパフォーマンスを向上させ、データを追加するために少なくとも毎秒3,500リクエスト、データを取得するために毎秒5,500リクエストをサポートし、追加料金なしで処理時間を大幅に節約できます。各S3プレフィックスはこれらのリクエストレートをサポートできるため、パフォーマンスを大幅に向上させることが簡単になります。 現在Amazon S3で実行されているアプリケーションは、変更なしでこのパフォーマンスの向上を享受します。S3で新しいアプリケーションを構築するお客様は、このパフォーマンスを達成するためにアプリケーションをカスタマイズする必要はありません。Amazon S3の並列リクエストのサポートにより、アプリケーションをカスタマイズせずに、コンピューティングクラスターの要因によってS3パフォーマンスを拡張できます。パフォーマンスはプレフィックスごとにスケーリングされるため、必要なスループットを達成するために必要な数のプレフィックスを同時に使用できます。プレフィックスの数に制限はありません。 このS3要求レートのパフォーマンスの向上により、オブジェクトプレフィックスをランダム化してパフォーマンスを高速化するための以前のガイダンスが削除されます。つまり、パフォーマンスに影響を与えることなく、S3オブジェクトの命名で論理的またはシーケンシャルな命名パターンを使用できるようになりました。この改善は、すべてのAWSリージョンで利用可能になりました。詳細については、Amazon S3開発者ガイドをご覧ください。 それは素晴らしいことですが、混乱を招くことにもなります。それは言う各S3の接頭辞は、それが簡単なパフォーマンスを大幅に向上させるために作り、これらの要求レートをサポートすることができます ただし、GET Bucket (List Objects)バケットのコンテンツをリストするとき、プレフィックスとデリミタはAPIの単なる引数であるため、「プレフィックスごと」にオブジェクトの取得パフォーマンスについて話すのはどうしたら理にかなっています。への呼び出しはすべて、GET Bucket (List Objects)必要なプレフィックスとデリミタを選択できるため、プレフィックスは事前定義されたエンティティではありません。 たとえば、バケットに次のオブジェクトがある場合: a1/b-2 a1/c-3 次に、バケットのコンテンツをリストするたびに区切り文字として「/」または「-」を使用することを選択できます。そのため、プレフィックスを a1/ または a1/b- a1/c- ただし、GET ObjectAPIはキー全体を使用するため、特定のプレフィックスまたは区切り文字の概念はオブジェクトの取得には存在しません。それで、5,500 req / sec on a1/、あるいは5,500 req / sec on a1/b-および5,500 on を期待できa1/c-ますか? だから誰かが「各s3プレフィックス」のパフォーマンスの特定のレベル(たとえば、データを取得するために毎秒+5,500リクエスト)を提案するとき、アナウンスの意味を説明できますか?

3
Amazon Route53 DNSおよびS3を使用したワイルドカードサブドメイン(* .example.com)
DNSにはAmazon Route53、htmlファイルにはS3を使用して、静的なウェブサイトをホストしています。正常に動作しています。 現在の設定は次のとおりです。 example.com. A ALIAS s3-website-us-east-1.amazonaws.com. www.example.com. CNAME www.example.com.s3-website-us-east-1.amazonaws.com (注:example.comとwww.example.comはS3バケットです。HTMLファイルはexample.comバケットにあります。) 今、私はこのようなワイルドカードサブドメインを追加したい-これは私が試したことです: *.example.com. CNAME www.example.com.s3-website-us-east-1.amazonaws.com このアイデアは、anything.example.comを使用してWebサイトに正しく解決することです。しかし、これは機能していないようです。そのため、Webサイト:joker.example.comにアクセスすると、ブラウザにエラーメッセージが表示されます。 Code: NoSuchBucket Message: The specified bucket does not exist BucketName: joker.example.com

8
AWS EC2 Windowsインスタンスの自動(毎日)スナップショットをスケジュールする方法は?
Amazon EC2でホストされているWindowsサーバーがいくつかあります。一部はWindows Server 2003を実行し、他はWindows Server 2008を実行します。これらはEBS-backedインスタンスです。ほとんどのインスタンスには、追加のEBSボリュームがいくつか追加されています。 Windowsマシン(および接続されているEBSボリューム)の毎日のスナップショットをS3にスケジュールして、毎日のバックアップを使用できるようにします。 これは非常に一般的な要件であり、AWS Management Consoleを介して利用可能になると考えられますが、残念ながらそうではありません。どのようなアプローチが利用可能ですか?Windowsサーバーで毎日のスナップショットをスケジュールするにはどうすればよいですか? Linux用のオンラインのスクリプト例はいくつかありますが、Windows用ではありません。私は見て持っていたhttp://sehmer.blogspot.com/2011/04/amazon-ec2-daily-snapshot-script-for.htmlなどhttps://github.com/ronmichael/aws-snapshot-をスケジューラー。誰かがこれらのアプローチのいずれかを使用し、機能しますか? Skeddlyのような一見安価なサービスも検討しましたが、複数のサーバーで使用すると、価格がすぐに上昇し、独自のソリューションを作成して、それを適用できるようになります。将来の新しいサーバー。Skeddlyを使用すると、サーバーごとに料金がかかります。 Windowsインスタンスの毎日のスナップショットをどのようにスケジュールしますか?

3
S3へのアップロードが非常に遅いのはなぜですか?
私はs3cmdS3へのアップロードに使用しています: # s3cmd put 1gb.bin s3://my-bucket/1gb.bin 1gb.bin -> s3://my-bucket/1gb.bin [1 of 1] 366706688 of 1073741824 34% in 371s 963.22 kB/s 私はLinodeからアップロードしています。これは、サポートに応じて50 Mb / sの発信帯域幅の上限があります(おおよそ6 MB / s)。 S3へのアップロード速度がこのように遅いのはなぜですか、どうすれば改善できますか? 更新: SCPを介して同じファイルをm1.medium EC2インスタンス(LinodeからインスタンスのEBSドライブへのSCP)にアップロードすると、約44 Mb / sが得られますiftop(暗号による圧縮は要因ではありません)。 Traceroute: アップロード先のサーバーへのtracerouteです(によるtcpdump)。 #traceroute s3-1-w.amazonaws.com。 s3-1-w.amazonaws.comへのtraceroute。(72.21.194.32)、最大30ホップ、60バイトパケット 1 207.99.1.13(207.99.1.13)0.635 ms 0.743 ms 0.723 ms 2 207.99.53.41(207.99.53.41)0.683 ms 0.865 …

1
複製とAmazon S3スクリプト
重複を使用してLinuxサーバーをAmazon S3にバックアップしたいと考えています。 ここで私はそれをセットアップするのに役立つ素晴らしいリソースを見つけ、そこにリストされていて、ここにコピーされた基本的なスクリプトを使用しています: #!/bin/sh # Export some ENV variables so you don't have to type anything export AWS_ACCESS_KEY_ID=[your-access-key-id] export AWS_SECRET_ACCESS_KEY=[your-secret-access-key] export PASSPHRASE=[your-gpg-passphrase] GPG_KEY=[your-gpg-key] # The source of your backup SOURCE=/ # The destination # Note that the bucket need not exist # but does need to be unique amongst all …
12 backup  amazon-s3 

4
Amazon S3の特定の拡張子のファイルのコンテンツタイプを再帰的に変更する
(特に)静的.jsonファイルと.mdファイルを含むネストされた「フォルダー」構造を持つ大きなS3バケットがあります。これらのファイルはtext/plain、正しいapplication/jsonおよびではなく、S3によって提供されていますtext/markdown。 バケットのデフォルトを更新して、新しいアップロードが正しいコンテンツタイプになるようにしました。 「ツリー」をたどり、特定の拡張子に一致するファイルのコンテンツタイプを更新する最良の方法は何ですか?
12 amazon-s3 

4
プライベートVPCサブネットからAmazon S3にアクセスする
VPCを実行しており、そのネットワークのプライベート部分にあるサーバーがAmazon s3からファイルをダウンロードしてバックエンド処理を行う場合、それらのファイルを取得するために内部でS3にアクセスできますか?または、NAT経由でパブリックインターネットにアクセスし、https経由でs3ファイルをダウンロードし、そのように処理する必要がありますか?


2
EC3 IAMロールにS3バケットへの読み取りアクセスを付与する
AWS Elastic Beanstalk Railsアプリがあり、S3バケットからいくつかのファイルをプルするようにconfigスクリプトで構成しています。アプリケーションを起動すると、ログに次のエラーが表示され続けます(セキュリティのためにバケット名が変更されています)。 Failed to retrieve https://s3.amazonaws.com/my.bucket/bootstrap.sh: HTTP Error 403 : <?xml version="1.0" encoding="UTF-8"?> <Error><Code>AccessDenied</Code><Message>Access Denied</Message> 設定ファイル: packages: yum: git: [] files: /opt/elasticbeanstalk/hooks/appdeploy/pre/01a_bootstrap.sh: mode: "00755" owner: root group: root source: https://s3.amazonaws.com/my.bucket/bootstrap.sh Elastic Beanstalk環境は、aws-elasticbeanstalk-ec2-roleインスタンスの役割としてIAMの役割で設定されています。この役割には次のポリシーがあります。 { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:Get*", "s3:List*" ], "Resource": "arn:aws:s3:::my.bucket/*" } …

9
300万件のレコードをキー値形式で格納する方法
300万点の商品の基本情報を保管しています。現在の情報は、四半期ごとに更新される1つの180 mb CSVです。 1日に約30,000のクエリがありますが、クエリは非常に単純なキー値ストアです。製品IDを検索して、残りの情報(すべて1つのレコードに含まれる)を表示するだけです。 これはウェブ用なので、高速なパフォーマンスが重要です。 リレーショナルデータベースが本当に必要ない場合でも、MySQLを使用する必要がありますか?四半期ごとに300万の静的htmlファイルを生成するだけでよいのでしょうか。各製品の1行のCSVをAmazon S3やRackspace Cloud Filesなどに保存する必要がありますか?これを行う最良の方法は何ですか?

8
バックアップなどのS3インターフェイス[終了]
閉まっている。この質問は、オフトピック。現在、回答を受け付けていません。 5年前休業。 ロックされています。この質問とトピックへの回答はロックされています。質問はトピックから外れていますが、歴史的に重要です。現在、新しい回答や相互作用を受け入れていません。 現在、S3「ファイルシステム」のいずれにも互換性がないため、バックアップ用のリモートS3バケットをマウントするためにどのs3ゲートウェイツールを推奨しますか?私はS3FSを使用してきましたが、コードの質の低さについて多くの人が不満を言うのを聞きました。私はまだ自分自身の正式なコードレビューを行っていません。他にどんなツールに満足していますか? 編集:明確にするために、ここではLinuxを実行しています。Windowsの互換性は良いですが、必須ではありません

6
サーバーがダウンしていてもCDNは機能しますか?
私は、Amazonのcloudfront S3を使用することを計画しているWebサイトの所有者です。私はCDNが何ができるかについてすべてのものを読んでいますが、未回答の質問があります。 メインサーバーがダウンしている場合でも、CDNは機能しますか?それが私がそれに興味を持っている主な理由です。というのも、ここマリでは、サーバーの電源障害が原因で、サーバーが頻繁に停止するからです。
10 backup  amazon-s3  cdn 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.