サーバー上で大量の小さなファイルを転送する最速の方法(gitなし)


2

大量のファイルをサーバーに展開する必要がある場合が多くありますが、これらのファイル自体はストレージスペースの大きさほど大きくありませんが、SFTPおよびFTP転送によりプロセスが非常に遅くなります。

何千もの小さなファイル(1〜30K)を転送するためのより高速な方法(より高速なプロトコル)はありますか?

現在、compress-> transfer-> uncompressを使用していますが、それは回避したいオーバーヘッドです。

命令セットが制限されているサーバーへのシェルアクセスがあります。

回答:


2

rsync たくさんの小さなファイルでかなり効率的です:

$ rsync -a path/to/local/files/ server:path/to/remote/files/

1
確かにftpよりも高速です。ありがとう
ブレット

-1

cd path/to/local/files/ -ファイルをコピーする場所。

sftp server:path/to remote/files/ -ファイルをコピーする場所から。

次に、ファイルをコピーするにはget -r file_name、get:Invalid flag -rエラーが発生した場合に使用し、rではなくRを使用します。


スーパーユーザーへようこそ。質問は、大量のファイルを転送する最速の方法を求めています。ソリューションはfile_nameをパラメーターとして使用します。これは、ファイルごとに手動で実行することを意味します。それが最速の解決策になるとは思えません。
fixer1234
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.