システムをリモートサーバー(AFP、Samba、またはNFS共有)にバックアップするにはどうすればよいですか?


11

これが目標です。圧縮とスナップショットが組み込まれたZFSファイルシステムを備えたバックアップサーバーがあります。すべてのマシンがで毎晩そこでバックアップrsyncされ、次にZFSスナップショットが取得されるため、各マシンが毎日の終わりにどのように見えたかのバックアップがあります。

問題は、Mac OS Xでは、リモートマシンがリソースフォークをサポートしていないため、リソースフォークがコピーされないことです。私がやりたいのはrsync、バックアップサーバーにある.DMGファイルです。このようにして、システムが毎晩どのように表示されるかを正確にブート可能なイメージで把握できます。

おまけとして、バックアップサーバーはNetBootサーバーでもあるので、これにより、実際には、Macの履歴からいつでも起動できます。

Macのドライブのイメージを作成し、バックアップサーバーにコピーしました。Macでそれを開いてrsync実行すると、一定の時間(場合によっては1時間以上、場合によってはそれ以下)で実行され、大量のI / Oエラーが発生します。イメージはRAIDアレイに保存されています。I/ Oエラーはないと思います。

Samba共有との接続が圧倒される可能性があると思います...私もAFPを試してみましたが、同じ結果が得られます...これを引き起こしている原因と解決方法を教えてください。または、リモートDMGファイルを更新する方法に関する他のアイデアはありますか?


3
(私が崇拝し、愛している)オープンソース/ユニキシーツールを使用してTimeMachineを再発明するのではなく、両方のマシンで無料のCrashPlanソフトウェアを実行することを検討しましたか?彼らはあなたが彼らからの助けが必要な場合、非常に高度で十分にサポートされているソフトウェアを提供しています。
bmike

うーん、私はそれを調査する必要があります!私がTimeMachineを「再検討」している理由は、TimeMachineは各マシンに大容量のUSBドライブを必要とし、私たちのセットアップではそれがなく、むしろ大規模なオンサイトバックアップRAIDがあるためです。
Josh

私は完全にあなたの理由を理解します。ZFSは優れており、既存のインフラストラクチャを再利用することは非常に理にかなっています。Macが10〜30台のクライアントの場合、スイートスポットは、Time MachineのすべてのMacクライアントに1つのドライブを共有するMacミニサーバーです。そのサーバーは、テープ/オフサイトローテーションのためのメインサーバーへのクラッシュプランを持っています(そして、sparsebundlesはHFSとメタデータをカプセル化します)。DeployStudioは、起動可能なイメージとネット復元を処理します。幸運とそれがどうなるかを教えてください。
bmike

@bmikeのCrashPlan提案に対する別の+1。内部でHadoopを使用し、TimeMachineのような増分を実行できます。バックアップを別のドライブまたはコンピューターに自由にプッシュできます。UIはTimeMachineほど良くありません。
イアンC.

クラッシュプランの場合は+1。これは無料の優れたソフトウェアであり、独自のサーバーなどのバックアップポイントを簡単に追加できるという追加の利点があります。
cregox

回答:


5

バックアップ用にNexenta / OSボックスに新しいボリュームをセットアップし、iSCSI LUNとして共有するように設定します。次に、MacOS X用のいくつかのiSCSI イニシエーターの 1つを使用して、バックアップボリュームを背中に接続します。Macで、ボリュームをHFS +としてフォーマットします。これで、CCCまたはrsyncなどを使用してバックアップを実行できます。


2
これは素晴らしいアイデアです。その日の仕事が終わったらやってみます!
Josh

1
+1-私はiSCSIを使用してそこに到達し、Mac固有のデータをカプセル化する方法を考えていました。ステップが少ないほど良いです。
bmike

ば!ただ、私はこれは素晴らしい機能していることを入力したとして、接続が失われました。しかし、この解決策にはまだ希望があります...
Josh

@ジョシュ:接続が失われた理由を知っていますか(物理的な取り外しなど)。また、iSCSI接続用に別のNICがありますか?
tegbains

接続が失われる原因はわかりませんが、現在、すべてのプロトコル(AFP、CIFS、NFS iSCSI)で発生しているため、サーバーに問題があります。データ転送が仮想マシンを圧倒し、応答しなくなったと思います...しかし、おそらくunix&linuxスタック交換について、別の質問をします。
ジョシュ

3

Carbon Copy Clonerの使用を検討しましたか?これを使用して、SSDをネットワークドライブに1か月に1回程度手動でビット単位でバックアップすると、問題なく動作します。私はそれが増分バックアップを行うことを知っており、ギガビットイーサネット経由でドライブをダンプするのに問題はありませんでした。


残念ながら、増分バックアップにCCCを使用すると、CCCが実行されrsync、同じ結果が得られます:-(
Josh

ドライブをネットワークドライブにダンプする場合、ネットワークドライブをホストしているのは何ですか。OS X?Linux?どのように接続しますか?サンバ?AFP?CCCをネットワークドライブに直接使用しますか、またはネットワークドライブのDMGに移動しますか?
Josh

@Josh:マウントされたディスクイメージにCCCできます
tegbains

それが私がやっていたことでした-そしてCCCが実行rsyncされていて、同じI / Oエラーが発生していました:-(
Josh

2

あなたの質問に対する正確な答えではありませんが、リソースフォークをrsyncすることもできます。ここに本当に素晴らしい記事があります:

ps:solarisまたはfreebsdを使用しますか?

だから、私が今試したこと:

私は(OSではなく)リモートOSを持っており、(遅いADSLを介して)fuse / sshfsを介してそれをマウントしました。

sshfs user@example.com:/path/to/dir /Users/me/Mount/myfs -oauto_cache,reconnect,volname=MyFs

私のマックブックではこれを入力しました:

/usr/bin/rsync -avE /Users/me/tmp/bk /Users/me/Mount/myfs/tmp/test

(/ tmp / testはすでにリモートコンピューターに存在します)

そしてこれを得た:

building file list ... done
bk/
._bk
bk/.DS_Store
bk/._.DS_Store
bk/Icon\#015
bk/._Icon\#015
bk/test.rtfd/
bk/test.rtfd/.LSOverride
bk/test.rtfd/TXT.rtf

sent 311127 bytes  received 186 bytes  15186.00 bytes/sec
total size is 6874  speedup is 0.02

ご覧のとおり、リソースフォークはdot_underscoreファイルに変換され、リモートの場所にコピーされます。(たとえば、ディレクトリbkのカスタムアイコンも)。

したがって、理解できません。なぜリモートzfsにrsyncできないのですか?


1
何を試しても、rsyncでリソースフォークをコピーできません。ZFSシステムがリソースフォークをサポートしていないためだと思います...よくわかりません。私は最初にDebian kBSDサーバーで試しましたが、NFSとNetatalkをサポートしているため、Nexenta(OpenSolarisカーネル+ Debianコア)に切り替えました。
Josh

そして3番目のリンク?(OS / FSに依存しないソリューションを示しています)
jm666

1
私はこれに本当に興味があります。これはzfs + timemachineの別のリンクです。blogs.oracle.com/constantin/entry/zfs_and_mac_os_x
jm666

ああ、そうですね、あなたはディレクトリをマウントしてrsyncローカルでingしています!Macからサーバーにrsyncしようとしました!私はこれを試して、あなたに戻ります。
Josh

0

理由はわかりませんが、ファイルコピー中にサーバーへの接続が切断されていました。高速で転送されている大量のデータがバックアップサーバーが処理できる量を超えていたためと考えられます。短時間応答しなくなり、MacがDMGを強制的に切断し、バックアップが失敗します。

私は解決策を見つけました。バックアップする前に、システム環境設定で、イーサネットNICの速度を1000Mbpsから100Mbpsに下げました。その後、データレートが制限され、バックアップサーバーに負荷がかからないため、バックアップは問題なく動作するように見えました。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.