2 大量のファイルをサーバーに展開する必要がある場合が多くありますが、これらのファイル自体はストレージスペースの大きさほど大きくありませんが、SFTPおよびFTP転送によりプロセスが非常に遅くなります。 何千もの小さなファイル(1〜30K)を転送するためのより高速な方法(より高速なプロトコル)はありますか? 現在、compress-> transfer-> uncompressを使用していますが、それは回避したいオーバーヘッドです。 命令セットが制限されているサーバーへのシェルアクセスがあります。 linux ftp sftp — ブレット ソース
2 rsync たくさんの小さなファイルでかなり効率的です: $ rsync -a path/to/local/files/ server:path/to/remote/files/ — ポール・R ソース 1 確かにftpよりも高速です。ありがとう — ブレット
-1 cd path/to/local/files/ -ファイルをコピーする場所。 sftp server:path/to remote/files/ -ファイルをコピーする場所から。 次に、ファイルをコピーするにはget -r file_name、get:Invalid flag -rエラーが発生した場合に使用し、rではなくRを使用します。 — user883057 ソース スーパーユーザーへようこそ。質問は、大量のファイルを転送する最速の方法を求めています。ソリューションはfile_nameをパラメーターとして使用します。これは、ファイルごとに手動で実行することを意味します。それが最速の解決策になるとは思えません。 — fixer1234