タグ付けされた質問 「amazon-s3」

これは、Amazonのクラウドストレージサービスに関する質問です。

2
AWS S3バケットへのRsync
Webサイトをホストしているサーバーの場合、データと設定をS3バケットにバックアップします。S3バケットへのバックアップにrsyncを直接使用できないことがわかりました。次のrsyncコマンドを実行してデータをS3バケットにバックアップする別の方法はありますか? rsync -­av ­/Data /s3bucket また、そのサーバー上のmysqlデータベースをS3バケットにバックアップしたいと思います。これを達成する最良の方法は何ですか? 最後の質問、S3にすべてをバックアップできたかどうか。サーバーがクラッシュした場合、または最悪の場合完全に消去された場合、サーバーを復元する最善の方法は何ですか?自分でサーバー設定を書き留めてサーバーを再構成する必要がありますか、これもバックアップする方法はありますか?

2
Route 53からS3にエイリアスターゲットを設定しようとすると、利用可能なターゲットがありません
ここで説明するように、単純なAmazon AWS S3ベースのウェブサイトをセットアップしようとしています。 S3バケット(simples3websitetest.com)をセットアップし、(できれば)適切な権限を付与しました。 { "Version": "2012-10-17", "Statement": [ { "Sid": "AddPerm", "Effect": "Allow", "Principal": { "AWS": "*" }, "Action": [ "s3:GetObject" ], "Resource": [ "arn:aws:s3:::simples3websitetest.com/*" ] } ] } index.htmlをアップロードし、Webサイトへのアクセスをセットアップしました。http: //simples3websitetest.com.s3-website-us-west-2.amazonaws.com/index.htmlからアクセスできます これまでのところ、Amazon Route53アクセスをセットアップしたいのですが、ここで行き詰まりました。 自分が所有するドメイン(resourcesbox.net)でホストゾーンを設定し、[レコードセットの作成]をクリックし、[エイリアスの設定]ステップに進みましたが、S3 Webサイトエンドポイントで[ターゲットなし]が表示されますエイリアスターゲットを設定してみてください。 私は何を取りこぼしたか??

7
ec2 Elastic Block Storeボリュームからs3に400Gのファイルをコピーする最も速い方法はどれですか?
エラスティックブロックストアボリュームから400Gのファイルをs3バケットにコピーする必要があります...これらは約1MBの約30万ファイルです 私はs3cmdとs3fuseを試してみましたが、両方とも本当に、本当に遅いです。s3cmdは丸一日実行し、コピーが終了したと言って、バケツをチェックしても何も起こらなかった(何かがうまくいかなかったと思いますが、 s3cmdは何も文句を言いませんでした) S3Fuseは別の1日間機能しており、コピーしたファイルは10%未満です... これのためのより良い解決策はありますか? もちろんLinux(ubuntu 12.04)を実行しています

5
S3バケットを別の場所に移動する方法
S3を使用して何百万ものエントリをwebappに保存します。今度はすべてをEC2、EUサーバーに移動し、S3データをEUに移動したいと考えています。しかし、私たちが使用しているバケットは米国にあり、バケットのコンテンツ全体を別のバケットに移動するツールはないようです。 また、EUバケットに切り替えたときにデータを同期する方法にも問題があります。このデータは、移行の実行中に作成されます。

1
ユーザーにファイルをS3バケットにアップロードさせ、上書きまたは削除させないようにするにはどうすればよいですか?
ユーザーに次のIAMポリシーがあります { "Version": "2012-10-17", "Statement": [ { "Sid": "Stmt1395161912000", "Effect": "Allow", "Action": [ "s3:ListBucket", "s3:PutObject", "s3:*" ], "Resource": [ "arn:aws:s3:::bucketname" ] }, { "Sid": "list", "Effect": "Allow", "Action": [ "s3:ListAllMyBuckets" ], "Resource": [ "arn:aws:s3:::*" ] } ] } 目標は、ユーザーがファイルをバケットにアップロードできるようにすることですが、上書きや削除はできません。バックアップ用です。私は始まったListBucketとPutObject、しかし、追加*、それは動作しませんでしたと。*ユーザーがファイルをアップロードすることさえできず、ただ取得しAccess Deniedます。 シミュレーターを試すと、が返さDenied - Implicitly denied (no matching statements found).れますがListBucket、暗黙的に許可されているため、奇妙に思えます。 S3クライアントとしてCyber​​duckと3Hubの両方を試しました。 何が間違っているのでしょうか?

2
S3 Webサイトのリダイレクト先にCloudFrontが続かないのはなぜですか?
Amazon S3でホストされているウェブサイトがあります。これは、WordPressでホストされている古いWebサイトの新しいバージョンです。 Website Redirect Location古い場所を処理し、それらを新しいWebサイトページにリダイレクトするために、メタデータでいくつかのファイルを設定しました。 たとえばhttp://www.mysite.com/solution、リダイレクトしたいことがあったhttp://mysite.s3-website-us-east-1.amazonaws.com/product.htmlのでsolution、正しいメタデータを使用して、バケット内に名前の空のファイルを作成しました。 Website Redirect Location= /product.html S3リダイレクトメタデータは301 Moved Permanently、SEOに最適なものと同等です。これは、S3ドメインからURLに直接アクセスする場合に最適です。 また、Webサイトバケットに基づいてCloudFrontディストリビューションをセットアップしました。そして、ディストリビューションを介してアクセスしようとすると、リダイレクトが機能しません。つまり: http://xxxx123.cloudfront.net/solution リダイレクトせず、代わりに空のファイルをダウンロードします。 私の質問は、CloudFrontディストリビューションを通じてリダイレクトを維持する方法ですか?または、SEOを悪化させることなくリダイレ​​クトを処理する方法についてのアイデアはありますか? ありがとう

3
Amazon S3に保存されたデータのバックアップ
ユーザーのアップロードファイルをS3に保存するWebサーバーを実行しているEC2インスタンスがあります。ファイルは一度書き込まれ、変更されることはありませんが、ユーザーによって時々取得されます。年間約200〜500 GBのデータが蓄積される可能性があります。特に誤って削除した場合に、このデータの安全性を確保し、理由に関係なく削除されたファイルを復元できるようにしたいと考えています。 S3バケットのバージョニング機能について読んだことがありますが、変更履歴のないファイルのリカバリが可能かどうかはわかりません。バージョン管理については、AWSのドキュメントを参照してください。 http://docs.aws.amazon.com/AmazonS3/latest/dev/ObjectVersioning.html これらの例では、データがアップロードされるが、決して変更されずに削除されるシナリオは示していません。このシナリオで削除されたファイルは回復可能ですか? 次に、オブジェクトライフサイクル管理を使用してS3ファイルをGlacierにバックアップするだけでよいと考えました。 http://docs.aws.amazon.com/AmazonS3/latest/dev/object-lifecycle-mgmt.html ただし、ファイルオブジェクトはGlacierにコピーされず、Glacierに移動されるため、これは機能しないようです(より正確には、オブジェクト属性が変更されているようですが、とにかく...)。 そのため、S3データを直接バックアップする方法はないようで、S3からローカルサーバーへのデータの転送には時間がかかり、時間が経つとかなりの転送コストが発生する可能性があります。 最後に、毎月新しいバケットを作成して毎月の完全バックアップとして使用し、1日目に元のバケットのデータを新しいバケットにコピーすることを考えました。次に、duplicity(http://duplicity.nongnu.org/)バックアップバケットを毎晩同期します。月末に、バックアップバケットの内容をGlacierストレージに配置し、元のバケットの新しい現在のコピーを使用して新しいバックアップバケットを作成し、このプロセスを繰り返します。これは機能し、ストレージ/転送コストを最小限に抑えるように見えますが、重複がバケットからバケットへの転送を許可するかどうかはわかりませんが、最初に制御クライアントにデータをダウンさせることはありません。 ですから、ここにはいくつか質問があります。まず、S3のバージョン管理では、変更されていないファイルを回復できますか?S3からGlacierにファイルを「コピー」する方法はありますか?重複または他のツールは、転送コストを回避するためにS3バケット間でファイルを直接転送できますか?最後に、S3データのバックアップへのアプローチで基準を外れていますか? ご意見をお寄せいただきありがとうございます! 更新 Amazonは最近、バージョニングがライフサイクルルールで動作するようになったことを発表しました

5
Amazon S3でデータのバックアップを作成する必要がありますか?
S3で200 GBの製品イメージをホストしています(これが私のプライマリファイルホストです)。 そのデータを別の場所にバックアップする必要がありますか、それともS3はそのまま安全ですか? S3バケットをEC2インスタンスにマウントしてから、夜間のrsyncバックアップを作成する実験を行っています。問題は、約300万ファイルであるため、異なるrsyncニーズを生成するのに時間がかかることです。バックアップの完了には、実際に約3日かかります。 これをより良くする方法はありますか?(必要な場合でも?)
16 backup  amazon-s3 

6
S3ファイルをバッチ削除する最も効率的な方法
S3で一度に数千または数万のファイルを一括削除できるようにしたいと思います。各ファイルは1MBから50MBのどこかになります。当然、ファイルの削除処理中にユーザー(またはサーバー)が待機するのは望ましくありません。したがって、質問: 特に大量のファイルを削除する場合、S3はファイルの削除をどのように処理しますか? これを行い、AWSにほとんどの作業を行わせる効率的な方法はありますか?効率的に言うと、S3へのリクエストの数を最小限にし、サーバー上の最小限のリソースを使用して最小限の時間をかけるということです。

2
CloudfrontでAccess-Control-Allow-Originを設定する
AWS Cloudfrontを使用してFirefoxに静的アセットを提供する際に問題が発生しています。 Chromeは完璧に動作しますが、FirefoxはCORSエラーを返しています。 curlを実行すると、次の結果が得られます。 HTTP/1.1 200 OK Content-Type: application/x-font-opentype Content-Length: 39420 Connection: keep-alive Date: Mon, 11 Aug 2014 21:53:50 GMT Cache-Control: public, max-age=31557600 Expires: Sun, 09 Aug 2015 01:28:02 GMT Last-Modified: Fri, 08 Aug 2014 19:28:05 GMT ETag: "9df744bdf9372cf4cff87bb3e2d68fc8" Accept-Ranges: bytes Server: AmazonS3 Age: 2743 X-Cache: Hit from cloudfront Via: …

3
バージョン管理されたS3バケットを特定の時点に復元する
バケットのS3バージョン管理を有効にしたとします:http : //docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html 次に、誰か(たとえば、下級従業員)がS3バケットを台無しにします(いくつかのファイルを誤って削除するなど) 次に、バージョン管理されたバケット全体を特定の時点に復元するにはどうすればよいですか?S3のAPIを考えればこれは可能だと思いますが、何かを失うことを恐れて(AWSの専門家ではないので)自分でそのようなスクリプトを書く必要はありません。 この問題の良い解決策はありますか?RailsアプリのイメージストアとしてS3バケットを使用しているため、rakeタスクとして使用できるRubyベースのものが理想的です。



5
バックアップサービスとしてAmazon S3を使用するためのソフトウェア[終了]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 6年前に閉鎖されました。 ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け入れていません。 毎日のバックアップのプレースホルダーとしてAmazon S3を使用するには、どのソフトウェアをお勧めしますか? 完全に自動化され、データを簡単に復元できる必要があります。
15 backup  amazon-s3 

10
S3互換オブジェクトストレージシステム[終了]
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、話題のサーバー障害のため。 5年前に閉鎖されました。 ほぼ100%Amazon S3 RESTful API互換のオブジェクトストレージシステムに出会った人はいますか? 私が望んでいるのは、適切な認証で、Amazon S3スタイルのRESTful APIを格納(PUT)、取得(GET)、統計(HEAD)および削除(DELETE)する任意の(好ましくはPOSIX)ファイルシステムの上にあるレイヤーです。 商用プロジェクト/アイデアも歓迎します。 注意: 私はこれまでユーカリと積雲を試しました。ユーカリは盲目的に自身をS3互換と呼んでいるようです。応答XMLドキュメントはまったく互換性がなく、XMLドキュメントがまったくない特定の場所ではパッチが適用されます。Cumulusは、応答ドキュメントをまったく同じように保つことができましたが、データの整合性を忘れていたようです。 後者について説明します。EucalyptusとCumulusは、Amazon S3が提供する整合性検証をサポートしていません。S3でできることは、PUT要求とともにBase64(MD5(FILE))を提供できることです。PUT要求は、S3が成功して応答する前に検証されます。EucalyptusとCumulusはこれをサポートしていません。Eucalyptusを使用すると、少なくともS3互換の動作ではなく、応答ドキュメントで指定されたMD5をチェックすることでこれを回避できます。Cumulusでは、何も応答しないため(S3など)、これは不可能です。HEADリクエストでETagを提供しないことにより、Cumulusによってさらに悪化します。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.