タグ付けされた質問 「backup」

バックアップとは、データが失われた後に元のデータを復元するために使用できるデータのコピー(バックアップ)を作成するプロセスです。

3
Clonezillaディスクイメージから単一のパーティションを復元できますか?
私はClonezillaのバックアップを実行することを考えていて、どのバックアップモードを選択すべきか疑問に思っていました。一般的に、Clonezillaには次のバックアップオプションがあります。 savedisk:完全なディスクイメージを保存します saveparts:特定のパーティションのイメージを保存します これに対応して、2つの復元モードがあります。 restoredisk:完全なディスクイメージを復元します restoreparts:パーティションイメージを復元します 私が探しているのは、これら2つのオプションのハイブリッドです。特定のパーティションを復元し、完全な障害が発生した場合にハードドライブ全体を復元できるようにしたいと思います。Clonezillaはそのままでこの復元経路をサポートしますか? これまでのところ、これに関する公式のドキュメントを見つけることはできません。私が見つけた唯一の参照は、ディスクイメージをパーティションイメージに変換できるカスタムスクリプトであるimgconvertを指す2010年のメーリングリストのディスカッションでした。残念ながら、このスクリプトがまだ機能するかどうかはわかりません。結局それは5歳です。 だからこそ、Clonezillaのこのユースケースの経験があり、このソリューション(または別の問題については)を保証できるかどうか、ここに尋ねたかったのです。

3
ZFSミラー化プールの効果的なオフサイトバックアップ戦略は何ですか?
2つのミラーリングされたディスクで構成されるZFSプールを使用しています。オフサイトバックアップを実行するために、さらに2つのディスクを購入しました。 私の最初の計画は、3番目のディスクをミラーに接続してオフサイトバックアップを作成し、ZFSが回復するのを待ってから、ドライブを切り離してオフサイトに運ぶことでした。これは十分に機能しますが、ディスクが接続されるたびに完全な復元を実行するように見えることに驚いています(読み取りごとに、おそらく誤解されていますが、接続するたびに増分または差分復元が発生します)。これにより、許容範囲を超えるバックアップが行われます。 私の要件は、毎日ローテーションできるzpoolとそのすべてのスナップショットのオフサイトコピーを用意することです。つまり、再同期には最大で24時間かかることを意味します。現在はそれに近いのですが、プールを拡張する計画では、その時間枠を超えてプッシュします。 完全な復元操作を必要としないオフサイトのバックアップを保持するにはどうすればよいですか?バックアップドライブで別のファイルシステムを使用する必要がありますか(ZFSプールの一部にするのではなく、イメージをエクスポートするなど)?別のプールにバックアップを作成し、作成時に新しいスナップショットをそのプールに送信する必要がありますか?
9 backup  zfs 

4
スナップショットの共有データを保持する別のメディアにbtrfsファイルシステムを複製する方法
私はbtrfs raid機能を試してみることにしました。私はbtrfsを設定しました sudo mkfs.btrfs -m raid10 -d raid10 /dev/sda9 /dev/sdb9 /dev/sdc9 /dev/sdd9 次に、既存のbtrfsパーティション(linux-raidの上にある)のクローンを作成します。シンプルなを使用することはできません。cp -aスナップショットベースのバックアップが40を超えているため(保存したい)、複数回保存できるすべてのストレージを単純にいっぱいにするだけです。 これまでのところ、2つのオプションがあります。 partclone.btrfs -s /path/to/original/fs -o /dev/sda9 -b そして、私もする必要があると思います btrfs balance start /dev/sda9 そして 行う:cp -aストレージに収まるだけの増分コピーを使用bedupして、ファイルの重複排除に使用し、ループします。 推奨される(つまり、ベストプラクティス)方法は何ですか?私は最初のものをはるかに好みます。それははるかに少ない時間がかかるはずです。または、おそらくこの手順のいずれかに潜んでいるいくつかの邪悪な「落とし穴」があります(もちろん、btrfsが実験的であるという事実に加えて) 最初の質問は問題外です。どんなに素晴らしいツールであってpartclone.btrfsも、マルチデバイスファイルシステムをサポートしていないことは明らかです。:-(
9 backup  btrfs 

3
すべてのファイルとフォルダーにユーザー権限を付与する
システム上のすべてのファイルとフォルダーにアクセスできるユーザーが必要です。これは、ローカルマシンでRSYNCを使用してリモートマシンをバックアップするためのものです。 現時点ではユーザーbackupsを使用していますが、このユーザーをグループに追加してもsudo、adminrsyncは次のようなメッセージを返します。 rsync:opendir "/ location / to / folder" failed:Permission denied(13) rsync:send_files failed to open "/ location / to / file":Permission denied(13) すべてbackupsにアクセスするためのアクセス許可をユーザーにどのように与えるかを考えます(ユーザーをすべてのグループに追加する以外は-バックアップしようとしているリモートサーバーは、すべてのアカウントがシステム上に独自のユーザーを持つ専用のホスティングサーバーです)。 助けてくれてありがとう。

2
ファイルが変更された場合のリアルタイムバックアップ?
Yadisと同様のlinux / unixコンソールアプリケーションで、次のことが可能になりますか? コンソールからセットアップする 複数のディレクトリをバックアップする ファイル(テキストファイル)が変更された後、リアルタイムでバックアップ/同期 更新1: 作業を簡単にするために、シェルスクリプト、rubyスクリプト、エイリアスなどを記述しています。これらのファイルのバックアップを取りたいのですが。私が探している解決策は、ドロップボックスディレクトリのサブディレクトリに変更が加えられた後、これらのファイルをコピーすることです。バックアップが行われ、どこからでも利用できます。常に新鮮で準備ができており、私はそれについて考える必要はありません。 cronを1日に数回実行できることはわかっていますが、Linuxで利用できるものを探すには解決策があるはずだと思いました。私はLinuxの経験があまりないので、ここで尋ねました。

1
重複:既存のファイルに完全なシステムバックアップを作成および復元する方法
を使用してシステム全体のバックアップを作成したいと思いますduplicity。 したがって、私は、ルートディレクトリのバックアップを作成/除く、/proc、/sys、/tmp、と/mnt。 ただし、バックアップをルートディレクトリに復元しようとすると、次のエラーが発生しました。 Restore destination directory / already exists. Will not overwrite. --forceコマンドにオプションを追加する[Errno 17]と、さまざまなファイルが既に存在しているという一連のエラーが表示されます。 バックアップを復元するには、復元duplicity先のファイルシステムに、復元を一時ディレクトリに抽出するための十分なスペースが必要ですか?その後、バックアップデータと既存のシステムをマージするのはユーザー次第でしょうか。


1
LinuxでのNTFSは、chownとchmodの設定でLinuxファイルを保存できますか?
Linuxをインストールして、さまざまなマシンのバックアップとして使用されるNTFSフォーマットのハードドライブに正しく読み書きできるようにする方法についていくつか疑問があります(Windowsが含まれているため、NTFSが必要です)。 今のところ、私はいくつかのページを読みましたが、ここで何かを台無しにしないために、すでにこのステップバイステップを実行している人からのガイダンスが必要だと感じています。 私に必要なのはそので、Linuxのファイルを保存できるようにすることであるchownとchmodし、設定のNTFSファイルシステム、および本情報バックを取得することができ。 私が今日持っているのは、ボリュームをマウントしたユーザーとすべてのアクセス許可を持つすべてのファイルを保存するNTFSです。owner:grouprwxrwxrwx 私はこの記事を読みましたが、情報が多すぎて、実際に実装しようとしても理解できませんでした。 現在のバージョンで安定していますか? Ubuntu 10.04にはすでに必要なものがすべて揃っていますか?それとも何かをインストールする必要がありますか? これに対するPOSIX ACLの関係は何ですか?これに関して何かをインストールする必要ntfs-3gがありますか、それとも実行しますか? Ubuntuパッケージはどこで実行しapt-getますか? (を使用してusermap)ユーザーをマップすると、ハードドライブを別のユーザーの別のコンピュータに移動できますが、それらを読み取ることはできますか?(Linux / Windowsの場合)? 私が気づいたことの1つは、usermap使用する準備ができていなかったことです。そこで、私は最新バージョンのntfs-3gをダウンロードしてコンパイルしました(ただし、ここでの混乱を恐れていたため、インストールしませんでした)。READMEファイルには次のように書かれています。 > TESTING WITHOUT INSTALLING > > Newer versions of ntfs-3g can be > tested without installing anything and > without disturbing an existing > installation. Just configure and make > as shown previously. This will …

3
obnamの期待されるパフォーマンスはどれくらいですか?または:なぜそんなに遅いのですか?
ここ数日間、obnamをいじってみましたが、非常に有望に見え、基本的にバックアップツールに必要なすべてを提供しているように見えますが、そのパフォーマンスにはかなりがっかりしています。実際、それは非常に遅いので、obnamはここでさえ故障ではないのではないかと疑っていますが、私の環境の何かが原因です。 他の誰かがobnamを使用しているか、問題を特定するのに十分その内部を知っているのかどうか、私は主に疑問に思っています。 私がこれまでに言ったことから、obnamはバックアップされたファイルごとに個別のgpgプロセスをフォークしているようです。htop、strace、およびiostatから判断すると、最初のバックアップの速度は、ほとんど一定のフォークによって制限されますが、CPUとドライブ(ネットワークが関与していない)は、ほとんど使用率が20%未満です。 私のバックアップは約500.000ファイルで、合計で170 GiBのデータです。したがって、バックアップを実行するたびに、gpgは500.000回フォークされます。これが最初の実行にほぼ1日かかり、ほとんどのファイルが変更されていない別の実行に3時間以上かかることは、実際には驚くこともありません。しかし、これは本当にobnamユーザーが期待するパフォーマンスでしょうか?比較のために、rsnapshot(同じデータ、同じマシン、同じドライブ)の増分実行には約4分かかります。もちろん、暗号化は含まれていませんが、それほど重要なことではありません。 だから、はっきりと尋ねると:他のすべての人のマシンは、毎秒50回を超えるgpg(データの小さなチャンクの暗号化)を実行できず、最終的にobnamはほとんど使用できないほど遅いツールになりますか?それとも私だけですか? (FWIW、私のマシンは、Gentooを実行する8GのRAMとSSDドライブを備えたCore i5-2500です。バックアップはHDDで行われますが、I / Oではないため、SSDへのバックアップに違いはありませんでした。 -バウンド。)

2
新規インストール後にアプリを再インストールしますか?
私はDebianを使用しており、ドライブのパーティションを分割して再インストールしたいと考えています。新規インストール後に現在インストールされているすべてのパッケージを復元する簡単な方法はありますか? 私はバックアップアプリのリストを作成することでそれを行うことを考えています: #generate list of installed packages dpkg -l | awk '{ print $2 }' ORS="\n" | tail -n +6 > reinstallList.txt そして、新規インストールを実行した後、私はできるはずです: #install from backup at reinstallList.txt sudo apt-get install $(< reinstallList.txt) これを行うより良い方法はありますか?
8 bash  debian  apt  backup  dpkg 

2
バックアップを使用してディスクの磁気状態を更新するにはどうすればよいですか?
私には、バックアップ/アーカイブ資料が入った大きなディスクがいくつかあります。それらはext4です。ディスク全体を再度読み取ることなく数年間保存されるものについては、ディスクの磁気状態をリフレッシュする方法を考えていました。ドライブの保存期間は、私が答えを探し求めているあらゆる場所で議論の余地があるようですが、数年(たとえば5年程度)のストレージの後で、何らかの方法でデータを更新するのが賢明だと思います(? ) 私はこれが提案されているのを見ました: dd if=/dev/sda of=/dev/sda 安全ですか?役に立ちましたか? 私がやろうとしていることは、fsckまたは以外のことですdd if=/dev/sda of=/dev/null。どちらもおそらく、ディスク上の既存の磁気ドロップアウトを検出します。 私がやりたいことは、ディスクの磁気電荷が読み取り可能なレベルを下回る前に磁気データを更新することです。これどうやってするの?
8 linux  backup  dd  storage  disk 

2
特殊文字を含むファイルをUSB FAT32に再同期する
FAT32でフォーマットされたUSBドライブに多数のファイルをコピーしたい(残念ながらそれ以外はフォーマットできない)。 これらのファイルの多くには、などの文字を含む名前が:あり?、FAT32では許可されていません。cpまたはを使用しようとするとrsync、これらのファイルはコピーされず、その旨を示すエラーが報告されます。 コピー元でファイルの名前を変更したくないのですが、コピー先のUSBドライブでファイルの名前を変更する必要もありません。 目的の明確化(他のコメントにも適用されます):これは車のmp3プレーヤー向けであり、ソフトウェアはFAT32のみを許可します。したがって、バックアップの目的ではありません。そして、ファイル名に奇妙な文字が含まれている理由は、それらが、たとえばmp3のタイトルやアーティストの名前であるためです。 私はいくつかのことを試しました: rsyncの--iconvオプション。これは機能していないようですが、おそらく正しく使用していません。 rdiff-backup私が読んだは、デフォルトでこの変換を行います。ただし、ソースファイルは私がたどりたいシンボリックリンク(つまりrsyncの-Lオプション)であり、マンページからrdiff-backupはこのオプションが付いていないようです。 他に何か提案はありますか?
8 backup  rsync  fat 

3
中断されたコピープロセスを再開する
コピーファイルの安全かつ確実にプロセスを再開するためにどのように$Aバックアップ場所に$Bで行いますpv "$A" > "$B"かcat "$A" > "$B"? (ファイル$Aが非常に大きいと仮定しましょう。例:LVM2スナップショットファイル) で達成可能ddですか? 推奨:bashまたはpython(できればpython3)ソリューション。 シナリオ例:pv "$A" > "$B"90%をコピーした後に中断されました。コピープロセスを終了し、作業全体を再度繰り返さないために、どのように再開しますか?


1
外付けドライブへの自動増分バックアップ
バックグラウンド クライアントは、外付けドライブへの自動バックアップソリューションを必要とします(毎週オフサイトで使用するため)。通常、rsnapshot(またはカスタムrsyncスクリプトのロールアウト)をお勧めしますが、この質問は少し複雑です。 Arch Linuxベースのシステムはヘッドレスであるため、ソリューションは完全に自動化されている必要があり、ユーザーの介入は必要ありません。 理想的なシナリオは次のとおりです。 ユーザーがUSBハードドライブを接続する 完全な増分バックアップが作成されます ハードドライブがマウントされていません ハードドライブを取り外すことができることがユーザーに通知されます 提案 私が提案する解決策は、次のもので構成されています。 udevルールは自動的にドライブをマウント バックアップは以下から開始されます: 同じudevルールでrsnapshotスクリプトもトリガーされます inotifyを 作成する新しいマウントポイントとトリガを検出したイベントをrsnapshot 終了後、ドライブで実行されrsnapshotますumount ハードドライブに通知する可能な方法は削除することができます: CDドライブが開きます PCスピーカーから音が再生される エラーが発生した場合は、ユーザーにメールを送信し、ドライブをアンマウントしてください。 ご質問 私の提案は実現可能のようですが、明らかな欠陥はありますか?どうすれば堅牢にすることができますか? セキュリティ上の理由から、接続されているハードドライブがユーザーのものであることをどのように確認できますか?sshキー?ドライブラベル? これを含む既存の(Linux)ソリューションはありますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.