mysqldumpで特定のテーブルをスキップする


558

mysqldumpコマンドから特定のテーブルを制限する方法はありますか?

たとえば、次の構文を使用して、table1とtable2 のみをダンプします。

mysqldump -u username -p database table1 table2 > database.sql

しかし、table1とtable2 を除くすべてのテーブルダンプする同様の方法はありますか?mysqldumpのドキュメントで何も見つからなかったので、ブルートフォース(すべてのテーブル名を指定)が唯一の方法ですか?

回答:


940

--ignore-tableオプションを使用できます。だからあなたはできる

mysqldump -u USERNAME -pPASSWORD DATABASE --ignore-table=DATABASE.table1 > database.sql

後に空白-pはありません(これはタイプミスではありません)。

複数のテーブルを無視したい場合は、次のような簡単なスクリプトを使用できます

#!/bin/bash
PASSWORD=XXXXXX
HOST=XXXXXX
USER=XXXXXX
DATABASE=databasename
DB_FILE=dump.sql
EXCLUDED_TABLES=(
table1
table2
table3
table4
tableN   
)

IGNORED_TABLES_STRING=''
for TABLE in "${EXCLUDED_TABLES[@]}"
do :
   IGNORED_TABLES_STRING+=" --ignore-table=${DATABASE}.${TABLE}"
done

echo "Dump structure"
mysqldump --host=${HOST} --user=${USER} --password=${PASSWORD} --single-transaction --no-data --routines ${DATABASE} > ${DB_FILE}

echo "Dump content"
mysqldump --host=${HOST} --user=${USER} --password=${PASSWORD} ${DATABASE} --no-create-info --skip-triggers ${IGNORED_TABLES_STRING} >> ${DB_FILE}

4
ありがとうございました!完璧に動作しました...どうやってそれを逃したのかわかりません。
Zac、

20
テーブルのコンテンツをスキップする方法はありますか?バックアップしたい構造。
Andres SK、

5
--no-data = trueオプションを使用できますが、テーブルごとのレベルで実行できるかどうかはわかりません。
ブライアンフィッシャー

60
--ignore-tableごとにデータベース名が設定されていない場合、「-ignore-table = <database>。<table>オプションの不正使用」エラーが発生します。必ずデータベースを宣言してください。
supajb 2011年

26
一部のテーブルデータを無視したいが、それらの構造をダンプする場合は、それらのテーブルに対してmysqldumpを再度実行し、作成したバックアップに連結することができます
carpii

119

@ Brian-Fisherからの回答に基づいて、この投稿の一部の人々のコメントに答えて、データベースに大量の(そして不要な)テーブルがたくさんあるので、コピーするときにそれらのコンテンツをスキップしたかったのですが、構造は維持しました:

mysqldump -h <host> -u <username> -p <schema> --no-data > db-structure.sql
mysqldump -h <host> -u <username> -p <schema> --no-create-info --ignore-table=schema.table1 --ignore-table=schema.table2 > db-data.sql

結果の2つのファイルは構造的には健全ですが、ダンプされたデータは9GBではなく500MBになりました。9 GBのデータを操作したり、ディスク領域が不足したりする心配をせずに、テスト用にこれら2つのファイルを別のデータベースにインポートできます。


MySQL 5.5.43でテストおよび使用(debian-linux-gnu(x86_64)の場合)感謝
Abdel

シンプルでエレガント。素晴らしいソリューションです。
グレッググロックナー2016年

4
素晴らしいソリューション。ダンプが後で機能するように--skip-triggersを2番目のステートメントに追加する必要がありましたが(トリガーがあると仮定して)、それ以外の場合:完全
Rainer Mohr

ありがとう、これは機能していて非常に便利です。
Himalaya Garg

59

複数のデータベースの場合:

mysqldump -u user -p --ignore-table=db1.tbl1 --ignore-table=db2.tbl1 --databases db1 db2 ..

5
このスレッドへの返信は既にあります。
alxgb 2013

19
そのとおりですが、このソリューションは複数のデータベースで機能します。
Alex、

面白い-私の最初の考えmysqldmysqldump同じプログラムになります。
Martin Thoma、2014年

4
それが私が探しているものです-何かを2〜3分間読むことを強制しないソリューションでのワンライナー回答:P
jebbie

43

複数のテーブルを無視する別の例

/usr/bin/mysqldump -uUSER -pPASS --ignore-table={db_test.test1,db_test.test3} db_test> db_test.sql

--ignore-table次のような構文で、テーブルの配列を使用および作成するdatabase.table

--ignore-table={db_test.table1,db_test.table3,db_test.table4}

役立つ情報を含むリンク

出力mysqldumpを圧縮する

注:mysql Ver 14.14 Distrib 5.5.55を使用してubuntuサーバーでテスト済み

データベースをインポート

 mysql -uUSER  -pPASS db_test < db_test.sql

テーブルを無視する簡単なスクリプト

#!/bin/bash

#tables to ignore
_TIGNORE=(
my_database.table1
my_database.table2
my_database.tablex
)

#create text for ignore tables
_TDELIMITED="$(IFS=" "; echo "${_TIGNORE[*]/#/--ignore-table=}")"

#don't forget to include user and password
/usr/bin/mysqldump -uUSER -pPASSWORD --events ${_TDELIMITED} --databases my_database | gzip -v > backup_database.sql.gz

複数のテーブルを無視する場合にスクリプトを使用しないようにするための優れた方法です。その答えはより多くの「+1」を受け取るはずです
svfat

完璧な答え!!! +1は私の日を作りました:)
SagarPPanchal

7

一部のテーブルデータを除外しますが、テーブル構造は除外しません。ここに私がそれをする方法があります:

データなしで、すべてのテーブルのデータベース構造をダンプします。

mysqldump -u user -p --no-data database > database_structure.sql

次に、除外されたテーブルを除いて、データベースにデータをダンプし、構造はダンプしません。

mysqldump -u user -p --no-create-info \
    --ignore-table=database.table1 \
    --ignore-table=database.table2 database > database_data.sql

次に、それを新しいデータベースにロードします。

mysql -u user -p newdatabase < database_structure.sql
mysql -u user -p newdatabase < database_data.sql

1

あなたは使用することができますmysqlpumpを使用してコマンドを

--exclude-tables=name

コマンド。除外するテーブルのコンマ区切りリストを指定します。

mysqlpumpの構文はmysqldumpによく似ていますが、その方がパフォーマンスが優れています。excludeオプションの使用方法の詳細については、https//dev.mysql.com/doc/refman/5.7/en/mysqlpump.html#mysqlpump-filteringをご覧ください。


0

すべてのテーブルですべてのデータベースをダンプしますが、特定のテーブルはスキップします

github:https : //github.com/rubo77/mysql-backup.sh/blob/master/mysql-backup.sh

#!/bin/bash
# mysql-backup.sh

if [ -z "$1" ] ; then
  echo
  echo "ERROR: root password Parameter missing."
  exit
fi
DB_host=localhost
MYSQL_USER=root
MYSQL_PASS=$1
MYSQL_CONN="-u${MYSQL_USER} -p${MYSQL_PASS}"
#MYSQL_CONN=""

BACKUP_DIR=/backup/mysql/

mkdir $BACKUP_DIR -p

MYSQLPATH=/var/lib/mysql/

IGNORE="database1.table1, database1.table2, database2.table1,"

# strpos $1 $2 [$3]
# strpos haystack needle [optional offset of an input string]
strpos()
{
    local str=${1}
    local offset=${3}
    if [ -n "${offset}" ]; then
        str=`substr "${str}" ${offset}`
    else
        offset=0
    fi
    str=${str/${2}*/}
    if [ "${#str}" -eq "${#1}" ]; then
        return 0
    fi
    echo $((${#str}+${offset}))
}

cd $MYSQLPATH
for i in */; do
    if [ $i != 'performance_schema/' ] ; then 
    DB=`basename "$i"` 
    #echo "backup $DB->$BACKUP_DIR$DB.sql.lzo"
    mysqlcheck "$DB" $MYSQL_CONN --silent --auto-repair >/tmp/tmp_grep_mysql-backup
    grep -E -B1 "note|warning|support|auto_increment|required|locks" /tmp/tmp_grep_mysql-backup>/tmp/tmp_grep_mysql-backup_not
    grep -v "$(cat /tmp/tmp_grep_mysql-backup_not)" /tmp/tmp_grep_mysql-backup

    tbl_count=0
    for t in $(mysql -NBA -h $DB_host $MYSQL_CONN -D $DB -e 'show tables') 
    do
      found=$(strpos "$IGNORE" "$DB"."$t,")
      if [ "$found" == "" ] ; then 
        echo "DUMPING TABLE: $DB.$t"
        mysqldump -h $DB_host $MYSQL_CONN $DB $t --events --skip-lock-tables | lzop -3 -f -o $BACKUP_DIR/$DB.$t.sql.lzo
        tbl_count=$(( tbl_count + 1 ))
      fi
    done
    echo "$tbl_count tables dumped from database '$DB' into dir=$BACKUP_DIR"
    fi
done

https://stackoverflow.com/a/17016410/1069083の少しの助けを借りて

より高速なlzopを使用します。http://pokecraft.first-world.info/wiki/Quick_Benchmark_Gzip_vs_Bzip2_vs_LZMA_vs_XZ_vs_LZ4_vs_LZOを参照してください。


共有したドキュメントによると、gzipはlzopよりも高速です。
jrosell 2016

0

私はRubo77のソリューションが好きです。Paulのソリューションを変更するまでは見ていませんでした。これは、不要なテーブルを除いて、単一のデータベースをバックアップします。次にgzipで圧縮し、8日以上経過したファイルを削除します。私はおそらく、1日1回フル(マイナスログテーブル)を実行する2つのバージョンを使用し、別のバージョンでは、カップルのcronジョブを使用して1時間ごとに最も変化する最も重要なテーブルをバックアップするだけです。

#!/bin/sh
PASSWORD=XXXX
HOST=127.0.0.1
USER=root
DATABASE=MyFavoriteDB

now="$(date +'%d_%m_%Y_%H_%M')"
filename="${DATABASE}_db_backup_$now"
backupfolder="/opt/backups/mysql"
DB_FILE="$backupfolder/$filename"
logfile="$backupfolder/"backup_log_"$(date +'%Y_%m')".txt

EXCLUDED_TABLES=(
logs
)
IGNORED_TABLES_STRING=''
for TABLE in "${EXCLUDED_TABLES[@]}"
do :
   IGNORED_TABLES_STRING+=" --ignore-table=${DATABASE}.${TABLE}"
done

echo "Dump structure started at $(date +'%d-%m-%Y %H:%M:%S')" >> "$logfile"
mysqldump --host=${HOST} --user=${USER} --password=${PASSWORD} --single-transaction --no-data --routines ${DATABASE}  > ${DB_FILE} 
echo "Dump structure finished at $(date +'%d-%m-%Y %H:%M:%S')" >> "$logfile"
echo "Dump content"
mysqldump --host=${HOST} --user=${USER} --password=${PASSWORD} ${DATABASE} --no-create-info --skip-triggers ${IGNORED_TABLES_STRING} >> ${DB_FILE}
gzip ${DB_FILE}

find "$backupfolder" -name ${DATABASE}_db_backup_* -mtime +8 -exec rm {} \;
echo "old files deleted" >> "$logfile"
echo "operation finished at $(date +'%d-%m-%Y %H:%M:%S')" >> "$logfile"
echo "*****************" >> "$logfile"
exit 0

0

完全を期すために、すべてのビューを除外(無視)して、データベースからバックアップを取得するための1行のスクリプトを次に示します。db名は従業員であると想定されます。

ignore=$(mysql --login-path=root1 INFORMATION_SCHEMA \
    --skip-column-names --batch \
    -e "select 
          group_concat(
            concat('--ignore-table=', table_schema, '.', table_name) SEPARATOR ' '
          ) 
        from tables 
        where table_type = 'VIEW' and table_schema = 'employees'")

mysqldump --login-path=root1 --column-statistics=0 --no-data employees $ignore > "./backups/som_file.sql"   

クエリのロジックを更新できます。一般的にを使用するgroup_concatと、concatほぼすべての必要な文字列またはシェルコマンドを生成できます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.