LinuxからLinux、10 TBの転送?


9

これまでの同様の質問をすべて調べましたが、答えはあちこちにあり、大量のデータを移動する人はいませんでした(100 GBは10 TBとは異なります)。

RAIDアレイから別のギガビットイーサネット、無料の百科事典、XFSファイルシステムに移動するのに必要な約10 TBがあります。私の最大の懸念は、転送が途中で死ぬことと簡単に再開することができないことです。速度はいいですが、転送を確実にすることがはるかに重要です。

通常はtarとnetcatだけですが、移動元のRAIDアレイは最近の時点で非常に不安定で、プロセスの途中でドロップした場合は回復して再開できる必要があります。私はrsyncを見るべきですか?

これをもう少し詳しく調べてみると、rsyncが遅すぎる可能性があると思います。30 以上かかることは避けたいです。だから今私はnetcatで転送を監視/再開する方法についての提案を探しています。


大きなファイル転送を行う必要がある場合があります(ただし、10 TBではありません)。rsyncには多くのフラグがあります。これらの一部は、大きなファイル転送のパフォーマンスに影響を与える可能性があります(たとえば、-checksumと--archiveが遅くなると思います。これは10TBを転送すると大きな違いが生じます。)そのような大きなファイル転送のパフォーマンスを最適化するのに役立つ良いオプションを誰かが推奨できますか?チューニングは--block-size=SIZE役に立ちますか?
Stefan Lasiewski、2010年

とにかくsshのオーバーヘッドを取り除く方法はありますか?
lostincode

1
受信側でrsyncdをセットアップしますか?sshは不要
cpbills 2010年

3
受信側と送信側のクライアントでrsyncデーモンを実行します。
追って通知があるまで一時停止。

2
片側でrsyncデーモンを設定できず、SSHでスタックしている場合は、次のようなあまり良くない暗号化で暗号化のオーバーヘッドを減らすことができます。rsync -avz -e 'ssh -c arcfour' SOURCE DEST
David

回答:


14

うん、rsync

オッドボールの外では、DRBDが最近発表した非同期機能です。


1
Rsyncの場合は+1。Linuxでのシステム間転送の王様。
grufftech

+ 1、rsync(およびWindows対応のDeltaCopy)は、すべての効率的なサーバーからサーバーへの汎用ファイル複製の最後です。
クリスS

1
rsyncの+1。ただし、rsyncまたはSSHプロトコルのオーバーヘッドが発生する代わりに、NFSマウントを介して「ローカル」に実行する方が速い場合があることを付け加えます。
James Sneeringer、2010年

2

テープでいっぱいのステーションワゴンの帯域幅を過小評価しないでください。 10 TBは、(たとえば2 TB)チャンクに分割できれば、比較的安価なコンシューマーグレードのNAS機器で実現可能です。これが1回限りの場合、半手動のプロセスが実行可能であり、2 TBのNASは数百ドルにすぎません。

継続的なプロセスが必要な場合は、最初の転送が完了した後でRSYNCをセットアップできます。


元の質問では、これはすでにローカルネットワーク上にあると述べていました。
Ladadadada

1
これは、OPの目的には遅すぎるか、信頼性が低いようです。
ConcernedOfTunbridgeWells

2

私は数か月前にこの種の仕事をしなければなりませんでした。プロセスを高速化するために、パラレルrsyncを使用しました。転送/同期するファイルをチャンクに分割し、いつでも再開できます。並列rsyncスクリプトについては、以下のリンクを参照してください。

https://gist.github.com/rcoup/5358786


0

データをコピーするサーバーにFTPサーバーをセットアップして、受信側で「再開」するFTPクライアントを使用することができます。私はFilezillaサーバーとクライアントを使用しており、クライアントの「再開」機能をかなり頻繁に使用しており、常に問題なく機能しています。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.