毎週データベースをバックアップするのは面倒です。また、毎週のバックアップを毎日のバックアップに変えるべきだと思います。私がそれをしなければならなかった場合、私は手動でそれをしたくありません。PostgreSQLデータベースのバックアップを毎日自動化する最良の方法は何ですか?
毎週データベースをバックアップするのは面倒です。また、毎週のバックアップを毎日のバックアップに変えるべきだと思います。私がそれをしなければならなかった場合、私は手動でそれをしたくありません。PostgreSQLデータベースのバックアップを毎日自動化する最良の方法は何ですか?
回答:
自動化できる他の繰り返しタスクの場合と同じです。バックアップを実行するスクリプトを作成し、それを実行するためにcronジョブをセットアップします。
たとえば、次のようなスクリプト:
(注:postgresユーザー、または同じ特権を持つ他のユーザーとして実行する必要があります)
#! /bin/bash
# backup-postgresql.sh
# by Craig Sanders <cas@taz.net.au>
# This script is public domain. feel free to use or modify
# as you like.
DUMPALL='/usr/bin/pg_dumpall'
PGDUMP='/usr/bin/pg_dump'
PSQL='/usr/bin/psql'
# directory to save backups in, must be rwx by postgres user
BASE_DIR='/var/backups/postgres'
YMD=$(date "+%Y-%m-%d")
DIR="$BASE_DIR/$YMD"
mkdir -p "$DIR"
cd "$DIR"
# get list of databases in system , exclude the tempate dbs
DBS=( $($PSQL --list --tuples-only |
awk '!/template[01]/ && $1 != "|" {print $1}') )
# first dump entire postgres database, including pg_shadow etc.
$DUMPALL --column-inserts | gzip -9 > "$DIR/db.out.gz"
# next dump globals (roles and tablespaces) only
$DUMPALL --globals-only | gzip -9 > "$DIR/globals.gz"
# now loop through each individual database and backup the
# schema and data separately
for database in "${DBS[@]}" ; do
SCHEMA="$DIR/$database.schema.gz"
DATA="$DIR/$database.data.gz"
INSERTS="$DIR/$database.inserts.gz"
# export data from postgres databases to plain text:
# dump schema
$PGDUMP --create --clean --schema-only "$database" |
gzip -9 > "$SCHEMA"
# dump data
$PGDUMP --disable-triggers --data-only "$database" |
gzip -9 > "$DATA"
# dump data as column inserts for a last resort backup
$PGDUMP --disable-triggers --data-only --column-inserts \
"$database" | gzip -9 > "$INSERTS"
done
# delete backup files older than 30 days
echo deleting old backup files:
find "$BASE_DIR/" -mindepth 1 -type d -mtime +30 -print0 |
xargs -0r rm -rfv
編集:
pg_dumpall -D
スイッチ(27行目)は廃止され、https://wiki.postgresql.org/wiki/Deprecated_Featuresに置き換えられました--column-inserts
DBS=$($PSQL -l -t | egrep -v 'template[01]' | awk '{print $1}' | egrep -v '^\|' | egrep -v '^$')
pg_dump dbname | gzip > filename.gz
でリロード
createdb dbname
gunzip -c filename.gz | psql dbname
または
cat filename.gz | gunzip | psql dbname
を使用しsplit
ます。このsplit
コマンドを使用すると、出力を、基礎となるファイルシステムに受け入れられるサイズに分割できます。たとえば、1メガバイトのチャンクを作成するには:
pg_dump dbname | split -b 1m - filename
でリロード
createdb dbname
cat filename* | psql dbname
あなたはそれらのうちの1つを投げることができます /etc/cron.hourly
http://www.postgresql.org/docs/8.1/interactive/backup.html#BACKUP-DUMP-ALLから入手
split -C
行を分割しないように、を使用してダンプを分割することをお勧めします。失敗した復元のデバッグは簡単です。
「手動」で発行するコマンドは何でも-スクリプトにコマンドを記述し、このスクリプトへの呼び出しをcronまたは使用するスケジューラーに入れます。
もちろん、スクリプトをより洗練させることもできますが、一般的には、そこにたどり着くと思います-簡単に始めて、後で改良します。
最も簡単なスクリプト:
#!/bin/bash
/usr/local/pgsql/bin/pg_dumpall -U postgres -f /var/backups/backup.dump
/home/randell/bin/backup.shとして保存し、cronに追加します。
0 0 * * 0 /home/randell/bin/backup.sh
最小限のシステム負荷でクラスター全体をバックアップする場合は、postgresqlクラスターのルートディレクトリを単純にtarすることができます。例えば:
echo "select pg_start_backup('full backup - `date`');" | psql
/usr/bin/rdiff-backup --force --remove-older-than 7D $BACKUP_TARGET
/usr/bin/rdiff-backup --include '/etc/postgresql' --include $PGDATA --exclude '/*' / $BACKUP_TARGET
/bin/tar -cjf /mnt/tmp/$SERVER_NAME.tbz2 $BACKUP_TARGET 2>&1
echo "select pg_stop_backup();" | psql
これがバックアップスクリプトの大部分です。
誰かがcygwinなどの助けを借りずにWindowsマシンでpostgresをバックアップしなければならない場合に備えて、バッチファイルがあります。
これにより、データベースが毎日独自のディレクトリ内の個々のファイルにバックアップされます
set dtnm=%date:~-4,4%%date:~-7,2%%date:~0,2%
set bdir=D:\backup\%dtnm%
mkdir %bdir%
FOR /F "tokens=1,2 delims=|" %%a IN ('psql -l -t -A -U postgres') DO (
IF %%b EQU postgres pg_dump -U postgres -f %bdir%\%%a.sql.gz -Z 9 -i %%a
)