タグ付けされた質問 「rsync」

RsyncはUnixおよびWindowsシステム用のオープンソースのコマンドラインツールであり、ファイルをコピーしてローカルまたはリモートホスト間でディレクトリを同期するための高速増分ファイル転送を提供します。ミラーリングとバックアップに広く使用されています。

4
不良セクタまたはハードウェア障害のあるハードドライブからのデータ回復のための、ddrescueなどのエラー処理を備えたrsyncなどのファイルコピーユーティリティ
閉まっている。この質問はトピック外です。現在、回答を受け付けていません。 この質問を改善したいですか? 質問を更新することがありますので、上のトピックスーパーユーザーのために。 5年前に閉鎖されました。 不良ディスクヘッド、不良モーター、またはハードドライブがデータを非常にゆっくりと大量に読み取る原因となるその他の問題など、潜在的な機械的問題のために読み取りに失敗する不良ブロックまたはセクターのハードドライブがあります読み取りエラー。平均50 KB /秒で、一部の読み取りが10 KB /秒未満に低下し、通常は2〜10分以上(非常に長い時間)ファイルまたはセクター全体で停止することがよくあります。タイムアウトする前にrsyncを使用します)。 速度は大幅に変化するようで、ファイルに多くのスタックが発生します。最終的に「スタック」が解除されると、再びスタックする前に短いバーストが続くだけです。また、ドライブは非常に静かで、ファイルコピーの音がときどきあります(通常は、再びスタックする前に、短時間スタック/スタックが解除されたとき)。したがって、通常、HDDの死に関連する悪音はありません。誰かが、問題の原因はディスクヘッドの位置ずれが原因であるように聞こえるのではないかと示唆しました。ディスクヘッドは、データを正常に読み取る前に多くの再読み取りが必要です。もっともらしいですが、私は脱線します... とにかく、rsyncの問題は、適切なエラー処理サポートがないように見えることです。もちろん、それはハードドライブの失敗からデータを回収するのに使用するためのものではありませんでしたが、そこにすべての、いわゆる「データ復旧」ユーティリティされているように使用するためのもので、通常は削除されたファイルまたはめちゃめちゃパーティションの回復に焦点を当てるのではなく、死にかけているハードドライブからファイルをコピーします。削除されたファイルの回復は明らかに私が必要なものではないので、おそらくあなたは私がまだ何を求めているのか見つけられないという失望を理解できるでしょう。 当然、これはおそらく「ddrescueを使用する必要があります!」と言うところです。まあ、それはすべてうまくできていますが、ほとんどのデータはすでにバックアップされているので、特定のファイルを回復したいだけです。ddrescueのように、完全なパーティションをブロックごとに回復しようとすることには関心がありません。特定のファイルとディレクトリだけを救うことに興味があります。 理想的には、rsyncとddrescueの間のある種のクロスです。ソースと宛先をrsync(ddrescueが必要とする2つの完全なパーティションではなく)のような通常のファイルのディレクトリとして指定できるようにします。最初の実行でエラーが発生し、その後の実行でエラーが発生したファイルのリカバリを試みることができます(もちろん、少し変更されたコマンドを使用して)。 ddrescueがブロックでどのように機能するか、rsyncのように特定のファイル/ディレクトリで機能するユーティリティのみが必要です。 だから私はここで空想にふけっているのか、それを可能にする何かがそこに存在するのか?または、rsyncまたはddrescueをこのような方法で動作させる方法もありますか?私は「救助」したいファイルを選択でき、最初の実行でエラーのあるファイルをスキップし、後でそれらのエラーを再試行/再試行できる限り、どんなソリューションでもうまくいくでしょう。 これまでのところ、次のオプションでrsyncを試しましたが、多くの場合、タイムアウトよりも長い間ファイルにスタックします。理想的には、次のファイルに移動して、後で取得したファイルに戻るようにしたいです立ち往生。私はそれが可能だとは思わない。とにかく、これまで私が使ってきたものは次のとおりです。 rsync -avP --stats --block-size=512 --timeout=600 /path/to/source/* /path/to/destination/

2
まだ書き込まれているファイルでのrsyncの動作は?
Apacheが大きなファイルの書き込み中に、そのファイルでrsync cronジョブが実行されている場合、rsyncはファイルをコピーしようとしますか? 例 Apache-1:大きいファイルが書き込まれてい/var/wwwます。 Apache-2:Apache-1のクローン。5分ごとにcronを実行してrsyncを実行し、/var/www同期させます。

5
MacOSのcp -r -l(再帰的コピーはハードリンクを保持)
ファイルへのハードリンクを保持するディレクトリツリーを再帰的にコピーしようとしています。gnu cpを使用すると、これは-lフラグで機能します。その後、cpはディレクトリ構造を再作成しますが、各ファイルの内容をコピーする必要はありません。 これはバックアップの準備段階です。最初に以前のバックアップの安価な(ハードリンクされた)コピーを作成し、次にこのコピーでソースディレクトリをrsyncします。おおよそ: cp -r -l yesterdays_backup todays_backup rsync -a source_dir todays_backup 残念ながら、OSXのcpは-lフラグをサポートしていません。私の知る限り、cpioは再帰的なコピーをサポートしていません。もう1つの方法はpaxですが、これによりディレクトリ構造全体がコピーされます。 pax -rw backups/yesterdays_backup backups/todays_backup 変換: yesterdays_backup | \source_dir (...) に: todays_backup | \backups \yesterdays_backup \source_dir(...) これを行うには簡単で明白な方法があるはずですが、私は現在困惑しています... cpioとpaxの代替手段はありますか?gnu cpをインストールする必要がないようにしたいと思います。 Timemachineは知っていますが、暗号化されたディレクトリを適切に増分バックアップすることはできません。
12 mac  backup  rsync  cp 


1
scp、rsync、またはシェルの作業中の警告メッセージ「kexプロトコルエラー:タイプ7」
最近、ホームサーバーでこれらのエラーがたくさん発生します。それらの発生はトラフィックに比例しているように見えるので、サーバーのシェルで作業している場合、1日1〜2回のように見えるかもしれません。しかし、rsync、またはscpプロセスを開始すると、ファイルごとに5〜6が転送されます。 kex protocol error: type 7 seq 358115 kex protocol error: type 7 seq 429489 kex protocol error: type 7 seq 500711 kex protocol error: type 7 seq 571534 kex protocol error: type 7 seq 642352 サーバーは、OpenSSH_7.2p2、OpenSSL 1.0.2hを実行しているGentoo Linux です。 この問題は、サーバーに接続されているクライアントとは無関係に発生するようです。それは私のノートブック(OpenSSH_7.2p2、OpenSSL 1.0.2hを備えた Gentoo )またはQnap NAS(Linux QNAP1 3.4.6#1 SMP Wed Jun …
12 linux  rsync  openssh  scp 

6
正規表現を使用して一部のファイルのみを含めるrsync
rsyncを実行して、ファイル名のパターンに基づいて、大文字と小文字を区別しないパスで再帰的にいくつかのファイルをコピーしようとしています。これは、rsyncを実行するために行ったことです。 $ rsync -avvz --include ='*/' --include='.*[Nn][Aa][Mm][E].*' --exclude='*' ./a/ ./b/ 何もコピーされません。デバッグ出力には以下が表示されます。 [sender] hiding file 1Name.txt because of pattern * [sender] hiding file 1.txt because of pattern * [sender] hiding file 2.txt because of pattern * [sender] hiding file Name1.txt because of pattern * [sender] hiding directory test1 because of pattern …
11 regex  linux  shell  backup  rsync 

10
NASをストレージサーバーとしてローカルで使用するDropboxのようなもの
NASと複数のローカルMac間でフォルダーペアを同期するソリューションを探しています。各Macはファイルを編集でき、他のMacは自動的に同期されます。基本的に、「クラウドストレージ」を使用せずに自分のローカルバージョンのDropbox。 rsyncを使用したソリューションを検討しました。私が理解しているように、rsyncは双方向の同期を実際に行うことができません。また、必ずしも同期プロセスを呼び出す必要はありません。私はバックグラウンドで実行されているデーモンを好むでしょう-変更を待って確認し、それらを「ライブ」で同期します。 また、このプログラムは、時々(ラップトップの場合)NASに到達できないことを認識するのに十分な柔軟性を備えている必要があります。その後、接続が再び戻るのを数分待つことなく待ちます。 synk、folderwatch、rsync、unison、その他いくつかを調べましたが、実際には解決策が見つかりませんでした。呼び出す必要があるか、実際には双方向ではありません。 Mac用のMicrosoftの「オフラインフォルダ」のようなものはありませんか? ありがとう PS:明確にするために-バックアップのために同期したくないので、代わりにすべてのMacがファイルへの最新の変更のローカルコピーを持つように同期したいです。
11 mac  sync  nas  rsync  dropbox 


4
WebDAVにマウントされたボリュームへのRSyncが非常に遅い
マウントされたWebDAVストアを持っています。これを使って、自分で作成した疑似DropBoxを組み立ててみました。ただし、より大きなファイルをアップロードするのは非常に遅いようです(私の帯域幅グラフは少しの間正常になり、その後長時間停止します)。 誰もこれを試しましたか?マウントされた方法がrsyncローカルドライブか何かであると考えているので、それがマウントされたネットワークドライブであることがわかっている場合よりもチャットティアかもしれませんか? 次のコマンドを使用して同期しています: rsync -rv /source/directory/ /mounted/webdav/directory/ これはMacOS 10.6を使用して実行されており、WebDAVはネイティブマウントメカニズムを使用してマウントされます。

3
rsync権限により、ローカルディレクトリへのリモートディレクトリのバックアップが拒否されました
タイトルに記載されているエラーが発生します。 私はこの同様の質問を見つけました:リモートマシンでroot権限でrsyncを実行します。それは私の質問に答えません。 私はリモートサーバーの管理者でありrsync、ローカルボックスへのファイルのバックアップに使用したいと思います。これが私のrsyncコマンドです: $ rsync -avz me@myserver.com:/var/www/ /backups/Sites/MySite/ ほとんど動作します。ログインはキーペア経由です。パスワードを使用することはできません(編集:SSH経由でログインするため)。権限のため、いくつかのファイルは転送されません。これらの権限を変更したくありません。 ここにエラーがあります: receiving file list ... done rsync: send_files failed to open "/var/www/webapp/securestuff/install.php": Permission denied (13) そのファイルの権限を変更したくありません。それ(およびそれを好む他の人)は(rootを除いて)読み取り可能であってはなりません。 これはcronジョブで実行する必要があり、私はrsyncコマンドのみを使用する単純な1行のソリューションを好みます。次の選択は、cronジョブから呼び出すことができるシェルスクリプトです。リモートマシンに手動でログインしてrootになることはできません(これが実行されているときはスリープ状態になるためです)。 rsyncを使用してローカルボックスにバックアップするにはどうすればよいですか?

4
実際にファイルを変更する前に、rsyncに確認を待機させます
ローカルフォルダーとリモートフォルダーを同期しています。ばかげたコマンドで1つのファイルを失ってしまった。 私は、実際のファイル転送を実行する前に、ユニゾンと確認方法( "go?")に慣れています。 rsyncにそのようなオプションはありますか?(サーバー側でユニゾンなし) ありがとう!
11 sync  rsync  unison 

6
OSX SSH rsync-リモートディレクトリを最新に保つ
私は主にWindowsの出身で、Macに移行しています。私はWinSCPを使用しており、「リモートディレクトリを最新に保つ」という機能を気に入っていました。 ここに質問があります:OSX用の同等のSCPクライアントで、ディレクトリの変更を監視し、検出されたときにアップロードしますか?GUIクライアントなのか、コマンドライン(rsync、sshなど)なのかは関係ありません。
11 macos  ssh  rsync  scp  winscp 


1
Ubuntu ServerのUnicode文字
最近、Ubuntu Desktop 13.04からUbuntu Server 13.10に移行しましたが、ファイルシステムがUnicode文字をサポートしていないようです。rsyncを使用してファイルをバックアップ/同期し、適切な文字を表示しますが、一致しないファイル名を削除して、エスケープバージョンを作成します。 例えば: root@ubuntu-server:~# rsync -avh --progress --delete --dry-run --exclude \$RECYCLE.BIN /media/source/ /media/target/ deleting Tiësto - Ten Seconds Before Sunrise.mp3 Ti\#353sto - Ten Seconds Before Sunrise.mp3 また、Unicodeファイルをファイルシステムにコピーすると、次のように表示されます。 drwxr-xr-x 3 root root 4096 Jan 21 2013 DJ Ti?sto/ 経由でユニコードライブラリをインストールしようとしましたapt-get install unicodeが、問題を解決するまでは何もしなかったようです。 更新:これはカーネルの問題である可能性があります。私はsamba / cifsをコピーしてmount -t cifs //192.xxx.xxx.xxx/source/ /media/target/ …

4
コマンドラインからscp / sftp / rsync / etc転送をレート制限することは可能ですか?つまり、単一のコマンドで手動QoSを実行しますか?
具体的には、コール自体のscp or sftpセッション(または他の任意のネットワークコール)をレート制限することを検討しています。 たとえば、あるサーバーに100MB、別のサーバーに1GBをコピーするとします。これらの両方を同時に実行できるようにしたいが、「通常の」コンピュータ使用のQoSを維持したい-ビットトレントをレート制限する方法に多少似ている。 ネットワークハードウェアに触れずにこれを行う方法はありますか? 私は次のようなものを想定しています: magic-qos-tool 'scp file user@host:/path/to/file' または scp -rate 40kbps file user@host:/path/to/file
10 rsync  bandwidth  scp  sftp  qos 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.