Rackspaceクラウドサイトのバックアップソリューションですか?


10

ファイルやデータベースを含む、Rackspace Cloud Sitesからコンテンツをバックアップするには、どのようなオプションがありますか?私は彼らがcronジョブを持っていることを知っていますが、それに関しては私がどのようなオプションを持っているのかわかりません。

彼らがサポートしているcronジョブのいくつかを以下に示します

回答:


3

2つのスクリプトを使用してVPSをバックアップします(Linodeでホストされていますが、Rackspaceでも同じように機能します)。

最初に、mysqlバックアップでは、automysqlbackupスクリプトを使用します。データベースのダンプ、データベースの圧縮、バックアップファイルの毎日/毎週/毎月のコピーの維持を管理します。また、圧縮された.sqlダンプをメールで送信することもできます。

一般的なファイルシステムのバックアップには、重複を使用しています。これは、さまざまなストレージバックエンド(ftp、scp、nfsなど)を使用できますが、Amazon S3バックエンドを使用することを選択しています。複製は、必要に応じて完全バックアップまたは増分バックアップを実行します。必要に応じて、バックアップファイルの圧縮や暗号化も処理します。


1
ラックスペースでは、シェルにアクセスできません。
ダニエルA.ホワイト

1

RackspaceではクラウドサイトへのSSHが許可されていないため、Duplicityをインストールするように説得できない限り、Duplicityは機能しないと思います。

私たちはソリューションも探していましたが、ファイルとSQLダンプをアーカイブし、名前と日付を付けてRackspace Cloud Filesに転送するバックアップシステムを構築することになりました。システムは古いバックアップのクリーンアップを処理し(さまざまな毎日/毎週/毎月のバックアップを保持)、専用のDrupalインストールのモジュールとして機能します。管理者は各バックアップのステータスに関するフィードバックを提供し、Googleスプレッドシートにデータを入力して概要を提供します。また、PHPクライアントを使用してすべての作業を行うため、Rackspace以外のサイトでも機能します(1つのPHPスクリプトをバックアップするサイトにアップロードし、管理UIで設定すると、マスターサイトですべてのスケジューリング/認証/その他の面倒を見てください...)内部的に使用していますが、興味がある場合はモジュールとしてリリースする可能性があります。


1
二枚舌はまた、任意のOpenStackのターゲットに、二枚舌を使ってRackspaceのクラウドへのバックアップを可能にするのpython-cloudfilesライブラリをサポートしています- take-your-vitamins.blogspot.com/2012/02/...
トム・H

0

私が知っている唯一の方法は、データとデータベースをバックアップするcronジョブを作成し、それをftpまたはデータ転送に使用したい方法にすることです。これがサンプルスクリプトです。

#!/bin/sh
# System + MySQL backup script
# Full backup day - Sun (rest of the day do incremental backup)
# Copyright (c) 2005-2006 nixCraft 
# This script is licensed under GNU GPL version 2.0 or above
# Automatically generated by http://bash.cyberciti.biz/backup/wizard-ftp-script.php
# ---------------------------------------------------------------------
### System Setup ###
DIRS="/home /etc /var/www"
BACKUP=/tmp/backup.$$
NOW=$(date +"%d-%m-%Y")
INCFILE="/root/tar-inc-backup.dat"
DAY=$(date +"%a")
FULLBACKUP="Sun"
### MySQL Setup ###
MUSER="admin"
MPASS="mysqladminpassword"
MHOST="localhost"
MYSQL="$(which mysql)"
MYSQLDUMP="$(which mysqldump)"
GZIP="$(which gzip)"
### FTP server Setup ###
FTPD="/home/vivek/incremental"
FTPU="vivek"
FTPP="ftppassword"
FTPS="208.111.11.2"
NCFTP="$(which ncftpput)"
### Other stuff ###
EMAILID="admin@theos.in"
### Start Backup for file system ###
[ ! -d $BACKUP ] && mkdir -p $BACKUP || :
### See if we want to make a full backup ###
if [ "$DAY" == "$FULLBACKUP" ]; then
FTPD="/home/vivek/full"
FILE="fs-full-$NOW.tar.gz"
tar -zcvf $BACKUP/$FILE $DIRS
else
i=$(date +"%Hh%Mm%Ss")
FILE="fs-i-$NOW-$i.tar.gz"
tar -g $INCFILE -zcvf $BACKUP/$FILE $DIRS
fi
### Start MySQL Backup ###
# Get all databases name
DBS="$($MYSQL -u $MUSER -h $MHOST -p$MPASS -Bse 'show databases')"
for db in $DBS
do
FILE=$BACKUP/mysql-$db.$NOW-$(date +"%T").gz
$MYSQLDUMP -u $MUSER -h $MHOST -p$MPASS $db | $GZIP -9 > $FILE
done
### Dump backup using FTP ###
#Start FTP backup using ncftp
ncftp -u"$FTPU" -p"$FTPP" $FTPS<
mkdir $FTPD
mkdir $FTPD/$NOW
cd $FTPD/$NOW
lcd $BACKUP
mput *
quit
EOF
### Find out if ftp backup failed or not ###
if [ "$?" == "0" ]; then
rm -f $BACKUP/*
else
T=/tmp/backup.fail
echo "Date: $(date)">$T
echo "Hostname: $(hostname)" >>$T
echo "Backup failed" >>$T
mail -s "BACKUP FAILED" "$EMAILID" <$T
rm -f $T
fi

0

スクリプトを実行するCronジョブは、私にとってより「しっかりした」ソリューションのようです。私はまだGUIへの依存から離れる過程にあります。D:

そうは言っても、私はCobianバックアップを使用して、すべてのサイトファイル@ cloudsitesをFTP経由で毎晩自動的にバックアップしています。これは、スクリプトの知識やCronジョブを必要としない非常に優れたファイアアンドフォーゲットソリューションです。復元を定期的にテストすることを確認してください。

詳細はこちら:http : //www.iainlbc.com/2010/04/how-to-backup-rackspace-cloudsites-automatically-incrementally-using-free-software/

MySQL Administrator(EOL)は、Amazon RDSの自動バックアップを処理します



0

http://www.zipitbackup.com/を試しました。ラックスペースのバックアップユーティリティ。それはうまくいきます。

ドキュメントはそれがどのように機能するかを言います:

->サイトごとに実行されます。Zipit Backup Utilityは、バックアップするサイトごとにインストールする必要があります。

-> Zipit Backup Utilityは、すべてのCloud SitesファイルとデータベースをCloud Filesアカウントにバックアップします。

->利用可能なすべてのバックアップを一覧表示します。利用可能なバックアップは、クラウドコントロールパネルから管理できます。


Zipitbackupスパム。
ディアーハンター

@DeerHunter、コミュニティがどの回答が有用かどうかを判断できるように、スパムを他の回答にマークするよりも代替案を提案してください。
Dashrath、2015年
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.