タグ付けされた質問 「backup」

バックアップとは、データが失われた後に元のデータを復元するために使用できるデータのコピー(バックアップ)を作成するプロセスです。

4
最速の方法は、多くのファイルを1つに結合します(tar czfは遅すぎます)
現在tar czf、バックアップファイルを結合するために実行しています。ファイルは特定のディレクトリにあります。 しかし、ファイルの数は増え続けています。使用にtzr czf時間がかかりすぎます(20分以上かかります)。 ファイルをより迅速かつスケーラブルに結合する必要があります。 私が見つけたgenisoimage、readomそしてmkisofs。しかし、どれが最速で、それぞれの制限が何であるかはわかりません。
23 backup  tar  archive 

8
実行中のDebianシステムのシステムイメージ?
実行中のDebianシステムを何らかのイメージファイルにバックアップすることは可能ですか?元の(バックアップされた)Debianシステムに障害が発生した場合、ddを使用して別のハードディスクに簡単に書き戻すことができますか? Debian Wheezyをraspberry piで実行しているため、リポジトリで直接利用できるツールを特に探しています。したがって、Debianリポジトリのパッケージに対して非常に信頼性の高いARMアーキテクチャのサポートが必要です。
22 debian  backup 


1
ファイルを同期する最良の方法-既存のファイルのみをコピーし、ターゲットよりも新しい場合のみ
Ubuntu 12.04でこの同期をローカルで実行しています。ファイルは通常、小さなテキストファイル(コード)です。 私はから(mtimeのスタンプを保存)をコピーしたいsourceのディレクトリtargetが、私はのみで、ファイル場合コピーしたいtarget すでにが存在している高齢の1以上source。 ですから、sourceでは新しいファイルのみをコピーしていますが、に存在している必要targetがあります。そうしないとコピーされません。(。sourceより多くのファイルがありtargetます。) 実際sourceに複数のtargetディレクトリからコピーします。ソリューションの選択に影響する場合に備えて、これについて言及します。ただし、target必要に応じて、新しいコマンドを毎回指定して、コマンドを複数回簡単に実行できます。


5
Linuxの大きなファイル(バックアップ)用の安定したファイルシステム
バックアップに最適なファイルシステムは何ですか?私は主に安定性(特にハードリブート中のファイルの破損など)に興味がありますが、大きな(5 GBを超える)ファイルを効率的に処理することも重要です。 また、どのマウントパラメーターを使用する必要がありますか? カーネルはLinux> = 2.6.34です。 編集:バックアップ方法は必要ありません。それらを保存するファイルシステムが必要です。


6
SSH自動リモートバックアップ
2台のマシンがAありBます。マシンAはにsshできますB。Aたくさんの空き容量があります。Bのデータは一種の危険な状況にあります。 すべてBのデータをA自動的にバックアップするにはどうすればよいですか。それはひどく頻繁である必要はありませんが、ハンズフリーでなければなりません。A起動するたびに十分な頻度になります。同期でこれができると聞きました。
16 ssh  backup 

3
LUKS暗号化デバイスをバックアップするためのベストプラクティス
luks暗号化デバイス(画像ファイルへの完全暗号化usb デバイスなど)をバックアップおよび復元する最速の方法は何ですか。 USBデバイスは復号化/アクセスできます。バックアップイメージをファイル(暗号化済み)としてマウントするソリューションを探しています。可能ですか? バカにしてください
15 linux  usb  backup  encryption  luks 

3
gzip圧縮を高速化
gzipプロセスをスピードアップすることは可能ですか? 私は使っています mysqldump "$database_name" | gzip > $BACKUP_DIR/$database_name.sql.gz 、ディレクトリにバックアップAデータベースへ$BACKUP_DIR。 マンページは言う: -#--fast --best 指定された数字#を使用して圧縮の速度を調整します。-1または--fastは最速の圧縮方式(より低い圧縮)を示し、-9または--bestは最も遅い圧縮方式を示します(最高の圧縮)。デフォルトの圧縮レベルは-6です(つまり、速度を犠牲にして高圧縮に偏っています)。 使用することはどれくらい効果的--fastですか? これは、現代のコンピューターのCPU使用率を効果的に低下させていますか? 私のテスト結果 私は加速に気付きませんでした: 7分47秒(デフォルトの比率で-6) 8分36秒(比率--fast(= 9)を使用) それで、高速圧縮を使用するのにさらに時間がかかるようです? 圧縮率が高い場合のみ、実際に速度が低下します。 11分57秒(比率--best(= 1)を使用) アイデアを取得した後、lzop私もそれをテストしましたが、実際には高速です: 6分、14秒 lzop -1 -f -o $BACKUP_DIR/$database_name.sql.lzo

4
傷のあるDVDビデオをリッピングする方法は?(「DVDのcdparanoia」)
私は通常、非常に素晴らしくシンプルなdvdbackupプログラムを使用して、DVD-Videoをリッピングおよびバックアップします。 ただし、一部のDVDにはいくつかの傷があり、DVDドライブにはいくつかのセクターの読み取りに問題があります。では、DVDに似たツールはありcdparanoiaますか?
15 backup  video  dvd  ripping 

3
インストール済みのパッケージと設定をあるディストリビューションから別のディストリビューションに転送するにはどうすればよいですか?
私は数か月間、VirtualBoxを介してLinuxシステムについて学習し、調査してきました。これをメインOSにして、ハードドライブにインストールすることにしました。HDDに直接インストールするときに引き継ぎたいファイル、パッケージ、および設定(.bashrcへの変更など)がありますが、これを行うにはどうすればよいですか?また、同様のDebianまたはRPMに切り替えることにした場合、今はUbuntuを実行しています。RHELベースのディストリビューションは同じプロセスでしょうか。考慮すべきことはありますか?

3
ビットが同一のコピー用の基本的なrsyncコマンド
私が理解している限りでは、次のコマンド: sudo rsync --delete -azvr /home/oshiro/Desktop/source/ /home/oshiro/Desktop/destination 1つの場所から別の場所へのファイルの単純な同期を作成するのに必要なのはこれだけですか?または、上記のコマンドは私が知らないバックグラウンドで何かをしますか?たとえば、過去の時間を指定してファイルを取得できるバージョン管理を作成しますか? これは、この段階では有効にしたくない機能です。私が欲しいのは、ある場所から別の場所へのファイルのビット同一コピーです。これらのパラメーターのいずれかを削除することはできますか、またはバージョン管理なしでコピーをビット同一にするためにパラメーターを追加する必要がありますか。基本的に、Mac Time Machineバックアップシステムがバックアップを作成する方法のバックアップを作成する必要はありません。
15 backup  rsync 

4
よく似たファイルを保存するためのローリングdiff?
報奨金は、期限が切れる6日に。この質問への回答は、+ 50レピュテーションバウンティの対象となります。 Basjは、この質問に対するより詳細な回答を探しています。典型的な例:backup201901.tar.gz、backup201902.tar.gz、...、backup201912.tar.gzなど」 職場では、mysqlデータベースの夜間ダンプを作成します。日々、データの90〜95%近くが重複しており、時間が経つにつれて増加することを推測します。(この時点で、いくつかはおそらく99%です) これらのダンプでは、1行が1つのmysql INSERTステートメントであるため、唯一の違いは行全体と、ファイル内での順序です。それらをソートした場合、ファイルごとの実際の違いは非常に小さいでしょう。 私は探していましたが、ダンプの出力をソートする方法を見つけていません。sortただし、コマンドを介してパイプできます。次に、同一行の長い長いブロックがあります。 だから私は差分のみを保存する方法を考えています。マスターダンプから始めて、毎晩それと比較することができます。しかし、差分は毎晩大きくなります。または、ローリングdiffを作成することもできますが、これは個々に非常に小さくなりますが、毎晩シリーズ全体のマスターdiffをまとめる必要がある場合、計算に時間がかかるようです。 これは可能ですか?どのツールで? 編集 mysqlバックアップを行う方法を尋ねていません。現時点ではmysqlを忘れてください。ニシンです。私が知りたいのは、一連のファイルから一連のローリングdiffを作成する方法です。毎晩、ファイル(たまたまmysqldumpファイル)を取得します。これは、前のファイルと99%類似しています。はい、すべてをgzipします。しかし、そもそもすべての冗長性を持つことは冗長です。私が本当に必要なのは、前の夜との違いだけです...これは前の夜とわずか1%違います...などです。したがって、私が望んでいるのは、一連の差分を作成する方法です。そのため、毎晩1%だけを保存する必要があります。

1
ローテーションを伴うバックアップとしてのファイルへのZFSスナップショット
ローカルのFreeNASシステムがあり、バックアップにZFSスナップショットを使用したい。 FreeNASには、使用する組み込みのレプリケーションタスクがあります zfs send snapshot_name スナップショットをリモートシステムに送信します。しかし、これにはもう一方の端にZFSを備えたシステムが必要です。 スナップショットをファイルに送信し、この圧縮および暗号化されたファイルをリモートマシンに送信します。 これは可能です zfs send snapshot_name | gzip | openssl enc -aes-256-cbc -a -salt > file.gz.ssl 毎日、ストレージプールのスナップショットを作成し、すべてのスナップショットを30日間保持します。 スナップショットを取得するたびに、このスナップショットをファイルにパイプします。 -snapshot_file 1にはすべてのファイルがあります(2GBとしましょう) -snapshot_file 2にはsnapshot_file 1への変更のみがあります(5MBとしましょう)-snapshot_file 3はsnapshot_file 2への変更を保持しています。等々。 31日目に、snapshot_file 1が削除されます(過去30日間の変更のみが必要なため) したがって、snapshot_file 2はすべてのファイルを保持する必要があります(2GBのsnapshot_file 1 + 5MBの変更) しかし、このアプローチでは毎日(31日目以降)新しい2GBファイルを作成してリモートシステムに送信する必要があります。これはオーバーヘッドが大きすぎます。 X日間の履歴を持つバックアップ戦略として、ファイルにパイプされたスナップショットを使用する最良の方法は何ですか? PS:そこには多くのバックアップソフトウェア(rdiff-backupなど)があり、それを使用できることがわかっています。しかし、私はこれがどのように行われるのか興味があります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.