タグ付けされた質問 「file-transfer」

5
rsyncから転送されたファイルのリストを取得しますか?
現在rsync、PHPアプリケーションをステージングサーバーから運用サーバーに展開するスクリプトで使用しています。方法は次のとおりです。 rsync -rzai --progress --stats --ignore-times --checksum /tmp/app_export/ root@app.com:/var/www/html/app/ これは現在、比較されているすべてのファイル(プロジェクト内のすべてのファイル)のリストを出力していますが、変更されたファイルのみを出力したいので--dry-run、すべてのデプロイが更新されていることを確認するオプションで実行できます必要なファイル。 注:これまでにできる最善grep fcstの結果は結果rsyncですが、そこにあると確信しているがマニュアルページで見つけることができないオプションを探しています。 前もって感謝します!

19
Windowsネットワークを介して大きなファイルを転送する最も簡単で最速の方法は何ですか?
20 GBを超えるデータを保存するMS SQL Serverを実行しているWindow Server 2000マシンがあります。データベースは毎日2番目のハードドライブにバックアップされます。これらのバックアップファイルを別のコンピューターに転送して、別のテストサーバーを構築し、回復を練習したいと思います。(バックアップは実際にはほぼ5年間復元されませんでした。そのことを上司に伝えないでください!) その巨大なファイルをネットワーク経由で転送するのに問題があります。プレーンネットワークコピー、Apacheダウンロード、およびftpを試しました。転送したデータの量が2GBに達すると、私が試した方法はすべて失敗します。最後にファイルを正常に転送したのは、USB接続の外付けハードドライブを介してでした。しかし、私はこのタスクを定期的に、できれば自動的に実行したいです。 この状況で最も実用的なアプローチは何ですか?

6
ファイルコピーの帯域幅をどのように制限しますか?
T1接続と私の場所へのvpnを備えたリモートの場所に古いWindows 2000ボックスがあります。通常、smbマウントを使用してファイルを転送しますが、今度はサーバーを使用停止にして、バックアップを自分の場所にコピーします。約40ギガバイト(圧縮)をコピーします。時間がかかることを覚悟していますが、いくつか注意点があります。 サイトへのターミナルサービス接続が影響を受けないように、帯域幅を制限する必要があります 部分転送を再開できるようにしたい いくつかの小さなファイルといくつかの大きなファイル(10〜20ギガバイト)があります。私は* nixプラットフォームでのrsyncに精通していますが、windowsで不運を経験しており、部分的に転送されたファイルを本当に保持することを知りません。あなたは何を使うのですか?

9
長いファイル名をサポートするWindows rsync、または適切な代替手段
ロックされています。この質問とその回答はロックされています。なぜなら、質問はトピックから外れていますが、歴史的に重要だからです。現在、新しい回答やインタラクションを受け付けていません。 現在、Linuxホストでrsyncを実行して、WindowsからLinuxボックスにコピーします。しかし、長い名前のファイルをコピーすることはできません。 DeltaCopy、cwrsync、cygwinを試しました。私がそこから発見したことから、これらのツールはすべて、ファイルの長さが長くなるとファイルのコピーを拒否します。これは約255文字のようです。 この問題は、ここのcwrsyncフォーラムで対処されており、cygwin 1.7がリリースされ、UTF8がサポートされるたびに、将来修正される可能性があります。ここにテストビルドさえあります。 実稼働システムでテストビルドを使用するのは特に不安です。私は誰かが別のrsyncオプションを知っていることを望んでいます。 rsyncの代わりに、WindowsホストからLinuxのディレクトリ構造をコピーできる別のツールを知っていますか?重要なことは、SSHトンネルを簡単に通過できるツールが必要なことです。一部のシステムはファイアウォールの向こう側にあり、SSHは私が使用を許可されるトンネルだと思います。


2
圧縮ありのscpが圧縮なしの場合よりも遅いのはなぜですか?
CentOS 6.5 VMのルートファイルシステムを格納している20 GBのKVM vdiskファイルをあるラボサーバーから別のラボサーバーに転送する必要がありました。ファイルサイズが大きいことと、このようなvdiskファイルを数百メガバイトに圧縮しscpたことがあるという事実により、本能的に圧縮を有効にできましたが、転送速度がやや遅いことに驚きました。そして、私が試したbzip2との組み合わせでsshとcatして驚きました。ここでは、メソッドと平均スループットの概要を示します。 scp -C vm1-root.img root@192.168.161.62:/mnt/vdisks/、11 MB /秒。 bzip2 -c vm1-root.img | ssh -l root 192.168.161.62 "bzip2 -d -c > /mnt/vdisks/vm1-root.img"、5 MB /秒。このさらに低い結果は、ネットでの検索を促しました。 scp -c arcfour -C vm1-root.img root@192.168.161.62:/mnt/vdisks/、13 MB /秒。この-c arcfourasの使用は、serverfaultの1つの回答で提案されました。それはほとんど役に立ちませんでした。最後に、圧縮を無効にしました。 scp vm1-root.img root@192.168.161.62:/mnt/vdisks/、23 MB /秒。 圧縮はもっと速くなるべきではないのですか? 編集:質問が反対票を投じられた理由がわかりません。ここで学ぶべきことがあると思いました。 ssh(1)@svenからmanページのヒントを受け取った後、私は圧縮を含まないファイル転送のいくつかの代替方法を試しましたが、どちらもより良い結果が得られました。 cat vm1-root.img | ssh -l root 192.168.161.62 …
10 ssh  scp  file-transfer 


4
LinuxからLinux、10 TBの転送?
これまでの同様の質問をすべて調べましたが、答えはあちこちにあり、大量のデータを移動する人はいませんでした(100 GBは10 TBとは異なります)。 RAIDアレイから別のギガビットイーサネット、無料の百科事典、XFSファイルシステムに移動するのに必要な約10 TBがあります。私の最大の懸念は、転送が途中で死ぬことと簡単に再開することができないことです。速度はいいですが、転送を確実にすることがはるかに重要です。 通常はtarとnetcatだけですが、移動元のRAIDアレイは最近の時点で非常に不安定で、プロセスの途中でドロップした場合は回復して再開できる必要があります。私はrsyncを見るべきですか? これをもう少し詳しく調べてみると、rsyncが遅すぎる可能性があると思います。30 日以上かかることは避けたいです。だから今私はnetcatで転送を監視/再開する方法についての提案を探しています。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.