タグ付けされた質問 「backup」

バックアップとは、データが失われた後に元のデータを復元するために使用できるデータのコピー(バックアップ)を作成するプロセスです。

1
tarでフォルダーを圧縮しますか?
フォルダー(/var/www/)を現在の日付の~/www_backups/$time.tar場所に圧縮しようとしています$time。 これは私が持っているものです: cd /var/www && sudo tar -czf ~/www_backups $time" 私は完全に失われ、私は今何時間もこれにいました。-czfが正しいかどうかわからない。私は単純にすべてのコンテンツをコピーする/var/wwwに$time.tarファイル、と私は、すべてのファイルのファイル権限を維持したいです。誰も私を助けることができますか?
268 linux  backup  tar 

8
Rsyncフィルター:1つのパターンのみをコピーする
LaTeXからコンパイルされたすべてのPDFのみを格納するディレクトリを作成しようとしています。私はそれぞれのプロジェクトを別々のフォルダーに入れておくのが好きで、すべてがという大きなフォルダーに収められていますLaTeX。だから私は実行してみました: rsync -avn *.pdf ~/LaTeX/ ~/Output/ ですべてのpdfを見つけ~/LaTeX/て、出力フォルダーに転送します。これは機能しません。「*.pdf」に一致するものがないことがわかります。このフィルターを省略した場合、コマンドはLaTeXの下のすべてのプロジェクトフォルダー内のすべてのファイルを一覧表示します。したがって、*。pdfフィルターの問題です。~/ホームディレクトリへのフルパスに置き換えようとしましたが、効果はありませんでした。 私は、zshを使用しています。私はbashであっても同じことをやってみましたし、すべてのサブディレクトリ内のすべてのファイルを1つだけ表示されるフィルタ...ここで何が起こっているの? rsyncがPDFのみのフィルターを理解しないのはなぜですか? OK。更新:いいえ rsync -avn --include="*/" --include="*.pdf" LaTeX/ Output/ これにより、ファイルリスト全体が表示されます。すべてが最初のパターンと一致するためだと思います...
128 backup  rsync  wildcards 

20
2台のコンピューター間で大量のデータを送信する最速の方法は何ですか?[閉まっている]
これは私が頻繁にいる状況です: 内部に320GBのハードドライブと16GBのRAMを備えたソースサーバーがあります(正確な仕様はここで入手できますが、これは他のマシンでも頻繁に遭遇する問題であるため、 「合理的な」Linuxマシン) 数テラバイトのハードドライブ領域を備えたバックアップサーバーがあります(正確な仕様はこちら、上記の免責事項を参照) ソースサーバーからターゲットサーバーに320 GBのデータ(具体的にはからのデータ/dev/sda)を転送したい。 2台のコンピューターは物理的に隣り合っているので、ケーブルを接続できます。 私はLAN上にいて、新しいルーターを使用しています。これは、ネットワーク速度が「理想的には」1000Mビットであるべきだということです。 セキュリティは問題ではありません。私はローカルネットワーク上にあり、ルーターを含むネットワーク上のすべてのマシンを信頼しています。 (オプション)データの署名付きチェックサムは必ずしも必要ではありませんが、基本的なエラーチェック(ドロップされたパケットやドライブが読み取れなくなるなど)は、出力に消えるのではなく、検出する必要があります。 この質問をオンラインで検索し、いくつかのコマンドをテストしました。最も頻繁に表示されるのはこれです: ssh user@192.168.1.100 'dd bs=16M if=/dev/sda | gzip' > backup_sda.gz このコマンドは遅すぎることが判明しました(1時間実行し、データで約80GBしか得られませんでした)。1GBのテストパケットには約1分22秒かかり、圧縮されていない場合は2倍の速度になりました。また、転送されたファイルがソースシステムのRAM容量よりも少ないという事実によって、結果が歪められた可能性があります。 さらに(これは1GBのテストピースでテストされました)、gzipコマンドとdd; を使用すると問題が発生します。結果ファイルは、直接パイプされた場合とは異なり、ターゲットで抽出されたときとは異なるチェックサムを持ちます。私はまだこれが起こっている理由を解明しようとしています。

4
最大サイズのブロックに分割されたtarアーカイブを作成します
かなり大きなディレクトリをバックアップする必要がありますが、個々のファイルのサイズによって制限されます。基本的に、tar.(gz|bz2)最大200MBのアーカイブに分割されるアーカイブを作成したいと思います。Clonezillaは、次のような名前のイメージバックアップを分割することにより、これに似た処理を行います。 sda1.backup.tar.gz.aa sda1.backup.tar.gz.ab sda1.backup.tar.gz.ac 1つのコマンドでこれを行う方法はありますか?splitコマンドの使用方法は理解していますが、巨大なアーカイブを1つ作成してから、それを小さなアーカイブに分割する必要はありません。これにより、最初にアーカイブを作成するために必要なディスクスペースが2倍になります。
83 backup  tar 


6
未使用のスペースをゼロでクリアします(ext3、ext4)
未使用のスペースをゼロでクリアする方法は?(ext3、ext4) よりスマートなものを探しています cat /dev/zero > /mnt/X/big_zero ; sync; rm /mnt/X/big_zero FSArchiverが「使用済みスペース」を探しているように、未使用だが反対側のサイトを無視します。 目的:パーティションイメージを圧縮したいので、未使用のスペースをゼロで埋めることを強くお勧めします。 ところで btrfsの場合:未使用のスペースをゼロでクリアします(btrfs)

7
rootユーザーなしでSSH経由でリモートマシンのすべてのファイルをrsyncしますか?
リモートマシンをバックアップするこのコマンドがあります。問題は、すべてのファイルを読み取り、コピーするためにルート権限が必要なことです。セキュリティ上の理由でルートユーザーを有効にしておらずsudo、Ubuntuの方法を使用しています。これを行うには、クールなパイピングなどが必要ですか? rsync -chavzP --stats user@192.168.1.2:/ /media/backupdisk/myserverbackup/
68 ubuntu  ssh  backup  rsync 

6
その場でgzip圧縮されたddイメージをマウントすることは可能ですか?
システムを初めてバックアップするときに、イメージバックアップを作成するのが好きです。この最初の時間の後、rsyncを使用して増分バックアップを行います。 私の通常のイメージバックアップは次のとおりです。 空のスペースをマウントしてゼロにします。 dd if=/dev/zero of=temp.dd bs=1M rm temp.dd 圧縮しながらドライブをアンマウントしてdd dd if=/dev/hda conv=sync,noerror bs=64K | gzip -c > /mnt/sda1/hda.ddimg.gz システムを通常に戻すには、通常、 gunzip -c /mnt/sda1/hda.img.gz | dd of=/dev/hda conv=sync,noerror bs=64K これは本当に簡単で、「ドライブ全体」を保存できますが、実際には使用済みの領域を保存するだけです。 ここに問題があります。上記を実行しますが、クリーンなシステムでは実行せず、rsyncバックアップをすぐに実行せず、アクセスしたいファイルがイメージ上にあるとしましょう。実際にイメージをドライブに解凍してddするためのストレージスペースがないが、イメージをマウントして個々のファイルを取得したいとします。...これは可能ですか? 通常、ddイメージは圧縮され-o loopないため、... を使用してイメージをマウントするだけで済みますが、これは私の場合ではありません... 圧縮されたimgをその場でマウントするための提案はありますか? AVFSを使用してgzファイルを「マウント」してから、内部dd.imgをマウントすることはできますか(そうは思いませんが...検証が必要です)。

9
外付けハードドライブへの簡単な増分バックアップ
しばらくの間、私はDirvishを使用してマシンの増分バックアップを行いましたが、構成するのは少し面倒です。構成のコピーを持っていない場合、他の場所で再現するのは困難です。 Unix、Linux用のバックアッププログラムを探しています。 バックアップを段階的に更新する dirvishがハードリンクを使用して(スペースを節約するために)行ったような「ミラー」ツリーを作成する 理想的なまともなUI
53 linux  backup  bsd 

6
どのディレクトリをバックアップする必要がありますか?
すべてのユーザー生成ファイルのバックアップを作成するために、バックアップする必要があるディレクトリは何ですか? 通常のdebianインストールから、必要なパッケージを取得するのに十分なaptを実行できます。システム全体をバックアップしたくない場合、ファイルシステム内のすべての場所でユーザー生成の構成とデータファイルが存在しますか?

1
rsyncが新しいファイルであっても宛先のファイルを強制的に上書きする
実行したrsyncバックアップスクリプトがあります。これは、要求したときに元のファイルを復元します。しかし、復元しようとしたときに、宛先のファイルがバックアップのファイルよりも新しい場合、それらは置き換えられません。新しいファイルをバックアップ内のファイルで置き換えたいのですが、rsyncでこれを行う方法がわかりません。 tldr:宛先のファイルをrsyncに強制的に上書きする方法はありますか? 編集:私は実行しているrsync -avhpバックアップを復元したいときは、「to」と「from」を交換して同じコマンドを使用します。そのため、バックアップドライブから自分のコンピューター上の場所にファイルをコピーしようとします。

3
ソースツリーにマウントポイントがあるときにファイルのタイムスタンプを保持するようにrsyncに指示する方法
この質問に関連 問題の簡単な説明: ソースツリー内にマウントポイントがある場合、ターゲットツリーにコピーされたときのマウントポイント内のファイルのタイムスタンプは、-aオプションを使用しても保持されません 詳細な説明: これがソースツリーであると仮定します。 /home/ /home/ | | me/ BACKUP/ | | +----+----------+ +----+-------+ | | | | | | data/ foo.txt boo.txt data/ foo.txt boo.txt | | a.txt a.txt どこdata/を上回っているが、外付けUSBディスクをマウント。すべてがext4ファイルシステムです。ソース内のすべてが所有されていmeます。 BACKUP たまたまマウントポイント、バックアップUSBディスクでもありました。 このコマンドを発行した後、その下にあるすべてのものが現在のタイムスタンプを持っていることがrsync -av --delete /home/me/ /home/BACKUP/わかりました。/home/BACKUP/data/まるでこれらのファイルが作成されたかのようで、のファイルのタイムスタンプではありません/home/me/data/。外部の他のファイルとフォルダーにdataは、タイムスタンプが保存されていました。 質問は次rsyncのとおりです。上記の設定で、マウントされたポイントのファイルやフォルダーであっても、すべてのファイルやフォルダーのタイムスタンプを保持するように指示するにはどうすればよいですか? 使っています: >uname -a Linux 3.5.0-17-generic #28-Ubuntu SMP x86_64 x86_64 x86_64 …
42 backup  rsync 

9
/ etc /の変更を追跡する方法
/ etc /の変更を追跡したい 基本的にyum update、ユーザーによって、またはユーザーによってファイルが変更されたかどうかを知り、変更が気に入らない場合はロールバックします。git、LVM、btrfsスナップショットなどのVCS、またはバックアッププログラムを使用することを考えました。 あなたは何をお勧めします?
30 backup  git  btrfs  etc 

4
ディレクトリの内容が更新されたときにコマンドを実行する方法は?
A他の人が頻繁に内容を変更するディレクトリがあります。 私はB今までにあったすべてのファイルを保管する個人的なディレクトリを作りましたA。 現在、私は時折実行rsyncファイルからバックアップする取得することAにB。ただし、いくつかのファイルがに追加されA、からAにコピーされる前に削除される可能性を恐れていますB。 これを防ぐための最良の方法は何ですか?理想的には、内容がA変更されるたびに現在のバックアップスクリプトを実行したいと思います。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.