タグ付けされた質問 「copy」

モノを複製して2つの類似したものを作成する。

4
コマンドラインでファイルの範囲をコピーする(ZSH / BASH)
サフィックスとして連続番号が付いているファイルのリストがあります。これらのファイルの範囲のみをコピーしたいと思います。cpコマンドの一部として範囲を指定するにはどうすればよいですか。 $ls P1080272.JPG* P1080273.JPG* P1080274.JPG* P1080275.JPG* P1080276.JPG* P1080277.JPG* P1080278.JPG* P1080279.JPG* P1080280.JPG* P1080281.JPG* P1080282.JPG* P1080283.JPG* 次のようなファイルをP1080275.JPGからP1080283.JPGにコピーしたいと思います。 $cp P10802[75-83].JPG ~/Images/. これを行う方法はありますか?
13 linux  bash  copy  zsh 

4
BitTorrentは職場のサーバー間でファイルをコピーするのに適していますか?
約30 GBのファイルを含む1つのソースサーバーがあり、これを他の7つのサーバーにコピーします。現在、ファイルを最初の4つのサーバーにSCPし、その転送が完了すると最後の3つのサーバーにSCPを送信します。 BitTorrentを使用すると、ファイルを一度に7つすべてに配布するのが速くなりますか?内部の接続はすでに高速で、各サーバー間で一貫しています。おそらくソースサーバーからある程度の負荷がかかることはわかっていますが、ファイルを配布するのに時間がかかりますか? シェルから使用できる優れたスクリプト可能なクライアントとは何ですか?私は誰もが100%後に種まきを停止したいと思います。
12 shell  copy  scp  bittorrent 


1
スパースファイルをコピーする最も速い方法は何ですか?最小のファイルになるのはどの方法ですか?
背景:私は、サイズが200ギガバイトであるスパースQCOW2 VMイメージをコピーしますが、割り当てられたブロックの16ギガバイトを持っています。このスパースファイルを同じサーバー内にコピーするためにさまざまな方法を試しましたが、いくつか予備的な結果が得られました。環境はRHEL 6.6またはCentOS 6.6 x64です。 ls -lhs srcFile 16G -rw-r--r-- 1 qemu qemu 201G Feb 4 11:50 srcFile CP経由-最高速度 cp --sparse=always srcFile dstFile Performance Notes: Copied 200GB max/16GB actual VM as 200GB max/26GB actual, bloat: 10GB Copy time: 1:02 (mm:ss) dd経由-全体的なパフォーマンスが最高 dd if=srcFile of=dstFile iflag=direct oflag=direct bs=4M conv=sparse Performance Notes: …

2
Windows Server 2008R2とUbuntu 12.04を実行しているゲストの間でクリップボードを共有するにはどうすればよいですか?[閉まっている]
休業。この質問には詳細または明確さが必要です。現在、回答を受け付けていません。 この質問を改善してみませんか?詳細を追加し、この投稿を編集して問題を明確にしてください。 6年前休業。 Windows Server 2008 R2とHyper-VおよびUbuntu 12.04 LTSを実行するゲストを使用しています。 Windows Server 2008R2とUbuntu 12.04を実行しているゲストの間でクリップボードを共有するにはどうすればよいですか? 更新 これらのマシンを接続するには、どのプロトコルが必要ですか?Ubuntuではctrl+ を押しc、次にWindows Serverではctrl+ vを押して、この方法でテキストをコピーします。 今日私はWinSCPを使用しています。そこで、テキストを含むファイルを作成し、このファイルをコピーします。それは簡単で速くはありません。

4
LinuxからLinux、10 TBの転送?
これまでの同様の質問をすべて調べましたが、答えはあちこちにあり、大量のデータを移動する人はいませんでした(100 GBは10 TBとは異なります)。 RAIDアレイから別のギガビットイーサネット、無料の百科事典、XFSファイルシステムに移動するのに必要な約10 TBがあります。私の最大の懸念は、転送が途中で死ぬことと簡単に再開することができないことです。速度はいいですが、転送を確実にすることがはるかに重要です。 通常はtarとnetcatだけですが、移動元のRAIDアレイは最近の時点で非常に不安定で、プロセスの途中でドロップした場合は回復して再開できる必要があります。私はrsyncを見るべきですか? これをもう少し詳しく調べてみると、rsyncが遅すぎる可能性があると思います。30 日以上かかることは避けたいです。だから今私はnetcatで転送を監視/再開する方法についての提案を探しています。

5
Linuxのファイルコピーを再開
Linuxで大きなファイルのコピーを再開するにはどうすればよいですか?巨大なファイル(serveral gigabyes)が部分的にネットワークドライブにコピーされており、時間がかかりましたが、ほとんどの場合、ネットワークの問題が修正されてコピー操作が停止する前に完了しました。ファイルのコピーを再開するにはどうすればよいですか。効率の悪いスクリプトを使いたくないので、ecpは機能しません(大きなファイルでは機能しないようです)。
9 linux  networking  copy  drive  cp 

4
大きなファイルをコピーするときにリソースの使用量を減らすにはどうすればよいですか?
大きなファイル(破損したMySQLテーブル〜40GB)を修復するために別のサーバーに移動する必要があります。(運用サーバーで修復しようとすると、すぐにサーバーが強制終了されました)。 これを行うには、.frm、.MYI、および.MYDファイルを運用サーバーからクラウドサーバーにrsyncします。 / var / lib / mysql / {database} /から/ home / {myuser}にファイルをコピーしているので、rsyncコマンドのルートアクセスを有効にする必要がなく、データベースファイルが100%でないことを確認できます。使用中(読み書きしないでください。ただし、確認のために運用データベースをシャットダウンする必要はありません)。 最初にコピーしようとしたファイルは約10GBでした。運用サーバーのある部分から別の部分、つまり同じディスクアレイに転送しています。 残念ながら、コピーコマンド "cp filename newfilename"は多くのリソースを消費し、サーバーを停止させました。 ファイルを別のディレクトリにコピーするときに、より少ないリソースを使用するにはどうすればよいですか?(実際にかかる時間は問題ではありません)。 私がこれを管理することを想定すると、ファイルをクラウドにrsyncするときにどのようなリソース使用量を期待できますか? 誰かがこれを行うより良い方法を提案できますか?私はすぐにディスク領域を使い果たしているので、このテーブルをできるだけ早く修復してアーカイブする必要があります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.