回答:
最近Googleでこのスレッドに出くわしましたが、質問が出されてから状況が少し変わったようです。ここで提案されているソリューションのほとんどは、もはやメンテナンスされていないか、商業化されています。
FUSEと他のいくつかのソリューションで作業することに不満を感じた後、Pythonを使用してS3およびGoogle Storage向けに独自のコマンドラインrsync「クローン」を作成することにしました。
GitHubでプロジェクトをチェックアウトできます:http : //github.com/seedifferently/boto_rsync
私が最近気づいた別のプロジェクトは「重複」です。それはもう少し精巧に見え、ここで見つけることができます:http : //duplicity.nongnu.org/
お役に立てれば。
更新
AWSのPythonチームは、クラウドサービスのボトベースのCLIプロジェクトに一生懸命取り組んできました。含まれているツールには、boto-rsyncによって提供される機能のほとんどを複製する(多くの点で置き換えられる)S3のインターフェイスがあります。
https://github.com/aws/aws-cli
特に、sync
rsyncとほぼ同じように機能するようにコマンドを構成できます。
http://docs.aws.amazon.com/cli/latest/reference/s3/sync.html
アクロニスのイメージの作成方法によっては、どのような種類のrsyncによって帯域幅が節約されるかはわかりません。アクロニスのイメージは単一のファイルであるため、rsyncは変更されたもののみをバックアップするためにそれらの内部を読み取ることができません。また、どの種類のサーバーイメージを作成しているのかわかりませんが、100GBと言ったので、フルになりますか?増分イメージは、夜間のイメージサイズを大幅に削減し、帯域幅を節約します。また、テープメディアなど、S3以外の別の場所にイメージを保存し、オフサイトに保存することもできます。
S3には、AWS Import / Exportと呼ばれるアドオンサービスもあります。これにより、最初の100Gbデータセットを含むUSBドライブを送信でき、データセンターでいくつかのバックエンドツールを使用してS3クラウドにロードします。100Gbが稼働すると、毎晩差分バックアップを行うだけで、変更されたすべてをバックアップできます。
このサイトはhttp://aws.amazon.com/importexport/です
データの大部分がかなり静的な場合、これは良いオプションです。100Gbのデータ全体が毎日変化している場合、これはあまり役に立ちません。
minioクライアント、別名「mc」を試すことができます。mcは、Amazon S3互換のクラウドストレージとファイルシステムで動作する最小限のツールを提供します。
mcは以下のコマンドを実装します
ls List files and folders.
mb Make a bucket or folder.
cat Display contents of a file.
pipe Write contents of stdin to one or more targets. When no target is specified, it writes to stdout.
share Generate URL for sharing.
cp Copy one or more objects to a target.
mirror Mirror folders recursively from a single source to many destinations.
diff Compute differences between two folders.
rm Remove file or bucket [WARNING: Use with care].
access Manage bucket access permissions.
session Manage saved sessions of cp and mirror operations.
config Manage configuration file.
update Check for a new software update.
version Print version.
ミラーコマンドを使用して操作を行うことができます。「localdir」はローカルディレクトリおよびS3 [Amazon S3のエイリアス]であり、「remoteDir」はS3上のバケットの名前です。
$ mc mirror localdir/ S3/remoteDir
同じためにcronjobを書くこともできます。また、ネットワークの怒りの場合には、とにかく「$ mcセッション」を使用して、その特定の時間からアップロードを再開できます。
PS:私はminioプロジェクトに貢献しており、あなたのフィードバックと貢献を得たいです。それが役に立てば幸い。
新しいJungle Disk Server Edition(ベータ版)は役に立つかもしれません。ブロックレベルの重複排除機能があるため、Acronisイメージに共通のものがある場合は、バックアップに必要な量が大幅に削減されます。この機能はサーバーのバックアップに最適です。リリースノートをご覧ください。
私はベータ版を2週間テストしてきましたが、最終版で修正されると確信しているGUIの小さな問題は別として、製品に興奮しています。