Google Cloud Storageでの重複を伴​​うバックアップ


9

複製を使用してすべてのファイルをAmazon S3にバックアップするバックアップルーチンをすでに設定しています。Google Cloud Storageで同様のバックアップルーチンを作成したいと思います。GCSで作業するために重複を取得することは可能ですか?

回答:


9

現在(2013-07-19以降-バージョン0.6.22)、複製でGoogle Cloud Storageを直接使用するためのサポートがあります。

を使用gsutil config -aして構成~/.botoファイルを作成する必要があります。そして、あなたはこのように二重性を使うことができます:

duplicity local_dir gs://yourbucket

また、古い認証メカニズムのみがサポートされていることにも注意してください。Googleストレージコンソールから「相互運用アクセス」を有効にする必要があります。

http://www.willdurness.com/back-up-your-vm-to-google-cloud-storage-using-duplicityの詳細な手順。


その「詳細な手順」のリンクが404になりました:(
BeepDog

7
  • 2012年8月の時点で、Duplicity Google Cloud Storage(GCS)をサポートしていません検索二枚舌トークメーリングリストのアーカイブのようなサポートを追加するのもウィッシュリスト段階では、何の議論がなかったことを示しています。
    • Googleドキュメントはサポートされていますが、そのAPIはGCSとはまったく異なります。
    • ウィッシュリストに最近提出されたバグ
  • S3サポートを提供するためにDuplicityによってバックエンドとして使用されるPython botoモジュールはGCSもサポートしますが、GCSサポートをduplicityに追加するには、コードに重要な変更を加える必要があります。S3GCS APIは同じではありません。
    • 誰かがGCSサポートの追加を試してみたい場合_boto_single.pyは、シングルスレッドS3トランザクションのバックエンドを提供するファイルから始めて変更するのが最も簡単です。
  • GCSが広くサポートされていないことは驚くべきことではありません。S3ほど普遍的ではありません。たとえば、デベロッパーとしてGoogleに登録する必要がありますが、サービスは引き続き「ベータ版」のGoogle Labsの一部と見なされます。
    • 唯一私がサポートGCSを見つけることができるバックアップソリューションですZmandaの(商用)。
    • Googleが開発者だけでなく、より広い範囲でGCSを展開しているので、FOSSアプリでのGCSのサポートを開始する必要があると思います。
  • 今のところ、GCSでDuplicityを使用するに、S3にバックアップしてから、Googleのgsutilツールを使用してS3をGCSと同期する必要があります。または、Duplicityを使用してローカルでバックアップし、を使用してGCSと同期することもできますgsutil

6

これは次の人を助けるかもしれない部分的な答えです:

これまでのところ、Googleドライブ/ドキュメントへのコピーがサポートされているようです。

duplicity localdir gdocs://username:password@gmail.com/remotedir/

ただし、これはGoogle Cloud Storageとは異なります。私が考えて、これは二枚舌のでなんとかする必要がありますgsutilの両方の使用のbotoが、これは二枚舌自体かかわらで行われる作業を必要とする場合、私はわかりません。

これを並べ替えるまでの回避策として、確かにs3からGCSバケットに直接コピーできます。

gsutil -m cp -R s3://yourbucket gs://yourbucket

2

Duplicityのバージョンv0.6.22(2013/08/22)にGoogle Cloud Storageのサポートが追加されました。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.