複製とAmazon S3スクリプト


12

重複を使用してLinuxサーバーをAmazon S3にバックアップしたいと考えています。

ここで私はそれをセットアップするのに役立つ素晴らしいリソースを見つけ、そこにリストされていて、ここにコピーされた基本的なスクリプトを使用しています:

#!/bin/sh
# Export some ENV variables so you don't have to type anything
export AWS_ACCESS_KEY_ID=[your-access-key-id]
export AWS_SECRET_ACCESS_KEY=[your-secret-access-key]
export PASSPHRASE=[your-gpg-passphrase]

GPG_KEY=[your-gpg-key]

# The source of your backup
SOURCE=/

# The destination
# Note that the bucket need not exist
# but does need to be unique amongst all
# Amazon S3 users. So, choose wisely.
DEST=s3+http://[your-bucket-name]/[backup-folder]

duplicity \
    --encrypt-key=${GPG_KEY} \
    --sign-key=${GPG_KEY} \
    --include=/boot \
    --include=/etc \
    --include=/home \
    --include=/root \
    --include=/var/lib/mysql \
    --exclude=/** \
    ${SOURCE} ${DEST}

# Reset the ENV variables. Don't need them sitting around
export AWS_ACCESS_KEY_ID=
export AWS_SECRET_ACCESS_KEY=
export PASSPHRASE=

このスクリプトを改善したり、より良いスクリプトを作成するためのベストプラクティスを共有したりすることができる複製の経験がある人はいますか?

回答:


15

バックアップにそのスクリプトのバリエーションを使用しています。私は最近、Amazon S3の請求書(個人サーバー、そうでなければあまり気にしなかったでしょう)でお金を節約しようとするために、いくつかの変更を行いました。

完全なスクリプトはこちらにありますが、以下に行った変更をリストします。

--full-if-older-than 1M
--volsize 250

最初のオプションでは、毎月、複製が完全バックアップを実行します。これは、S3からファイルを削除する必要がある場合に最新の完全バックアップまで削除できることを意味するため、便利です。

2番目のオプションは、S3の重複ストアの数を減らし、S3への要求の数を減らし、コストを削減します。

また、バックアップの実行後に次を追加しました。これにより、S3から6か月以上前のバックアップが削除されます。

duplicity remove-older-than 6M --force ${DEST}
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.