タグ付けされた質問 「files」

事前定義された形式でエンコードされ、ファイルシステムに保存された整理されたデータ。

5
日付より古い別のディレクトリにファイルを移動する
今日から1年前のファイルを移動するソリューションを探しています。ログパーティションがいっぱいになりましたが、削除できません。それらは長い間必要です。とにかく私が思いついた1つの解決策は次のとおりです。 find /sourcedirectory -mtime 365 -exec mv "{}" /destination/directory/ \; これは機能しますか?「-mtime 365」のために尋ねると、今日から1年前のファイルが新しい場所に移動されますか? ありがとうございました!
28 unix  files  find  copy 


1
IISの「Temporary ASP.NET Files」フォルダーの場所を構成することは可能ですか?
プールIDをドメインユーザーに切り替えた後のIIS7.5では、次のエラーが表示されました。 「現在のID(ドメイン\ユーザー名)には、「C:\ Windows \ Microsoft.NET \ Framework64 \ v4.0.30319 \ Temporary ASP.NET Files」への書き込みアクセス権がありません。」 この特定のディレクトリに対するユーザー権限を付与することはできましたが、より良い解決策があるのだろうかと思います。理想的には、この「一時ASP.NETファイル」ディレクトリを他の場所に保存されるように構成したいと思います。

9
IIS7にロックされたファイルを解放させる方法は?
実稼働ビルド中に、ルートディレクトリ内の非常に大きな(10メガバイト)静的コンテンツファイルがIISによってロックされ、クリーンタスクで削除できないことがあります。これは、その時点で1つ以上のクライアントにアクティブに提供されているためと思われます。 ビルドプロセスは、を介してクリーニングする前にWebサイトを停止します c:\Windows\System32\inetsrv\appcmd.exe stop site http://oursite.com ただし、これによりファイルが解放されるわけではありません。IISを再起動してプロセスのロックを解除する必要があります。 appcmd.exeIISを完全に停止できます。これはしたくない! IISを再起動せずに、ロックされたファイルを解放するIISを取得する他の方法はありますか?個々のWebサイトを単に停止および開始するだけでは、ファイルロックを解除することはできません。
25 iis  iis-7  files 

4
大きなファイルを500台以上のコンピューターにプッシュする
私はチームと協力して、年次会議のために500〜600台のレンタルWindows 7コンピューターを管理しています。これらのコンピューターに同期する必要がある大量のデータがあり、最大1 TiBです。コンピューターは部屋に分割され、管理されていないギガビットスイッチを介して接続されます。これらのコンピューターは、Windowsのインストールと構成、およびレンタル会社による複製のためにベースイメージを送信する前に使用可能なファイルを事前に準備します。毎年、プレゼンターは、プレゼンテーションを行う部屋にプッシュする必要があるデータのギグまでサイト上でアプローチします。スライドPDFなどの小さなサイズのファイルがいくつかある場合もありますが、 5 GiBを超える場合もあります。 これらのファイルをプッシュするための現在の戦略は、バッチスクリプトとRoboCopyを使用することです。大規模なプッシュの場合、実際にはBitTorrentクライアントを使用してトレントファイルを生成し、バッチRoboCopyを使用して、インストールされたBTクライアントによって監視されているリモートマシン上のフォルダーにトレントをプッシュします。多くの場合、このデータは短い時間枠ですぐにプッシュする必要があります。コントロールルームには、これらのプッシュに使用する床のマシンと同じマシンがいくつかあります。 リモートマシンでプログラムを実行する必要がある場合があり、現在、バッチとPSexecを使用してこのタスクを処理しています。 これらの最後のプッシュに「ごめん、ご自身の過失」で対応できるようにしたいのですが、それは起こりません。BTメソッドを使用すると、応答時間が大幅に短縮されますが、複数のジョブがプッシュされると、バッチプロセス全体が乱雑になる可能性があります。私たちは他のプロセスにEnterprise Ghostを使用していますが、このような大規模な環境ではうまく機能しません。また、このような1年に1回のタスクでは非常に高価です。 編集:床のリモートマシンがWindowsを実行しているという厳しい要件があります。制御マシンにはハードOS要件はありません。アップストリームルーターとの合併症のため、マルチキャストから離れたいと思います。マルチキャストまたはBitTorrentがこれを実行するより良い方法ですか?よりよく機能する別のプロトコルはありますか?

6
2つのファイルが法的に同じであることを証明するにはどうすればよいですか?
誰かが辞める前にいくつかのファイルを盗みましたが、最終的に訴訟になりました。ファイルのCDが提供されたので、自分のファイルサーバーのファイルと一致させることで、それらがファイルであることを「証明」する必要があります。 これが私たちの弁護士のためのものなのか、裁判所の証拠なのか、あるいはその両方なのかはわかりません。また、私は公平な第三者ではないことも認識しています。 これらのファイルをサーバーから「証明」する方法を考えると、CDを受け取る前にファイルがあることを証明する必要があることに気付きました。私の上司は、問題のファイルのエクスプローラーウィンドウのスクリーンショットを作成日とファイル名とともに表示し、CDを受け取る前日に弁護士にメールで送りました。md5sumsを提供したかったのですが、プロセスのその部分には関与していませんでした。 私の最初の考えは、unix diffプログラムを使用して、コンソールシェル出力を提供することでした。また、ファイルとそのファイルの両方のmd5合計と結合できると考えました。これらは両方とも簡単に偽装できます。 私が実際に提供するべきものを失い、それから私の調査結果を再現するために監査可能な証跡を提供する方法で再び失われています。 誰もこれを経験したことがありますか? 事件に関する事実: ファイルはWindows 2003ファイルサーバーから取得されました インシデントは1年以上前に発生し、ファイルはインシデントの前から変更されていません。
24 windows  files  diff 

4
Rsyncは個々のファイルの進行状況を表示します
rsyncを使用して、非常に大きなファイル(20Gb)をアップロード/ダウンロードしています。--progressオプションを知っていますが、私の場合はそれが何をするかは最後に結果を表示するだけです。 私の問題は、不安定な接続中に、それがまだダウンロード/アップロードされているのか、何かがおかしいのかわからないことです。個々のファイルの進行状況バーを表示する方法はありますか?デフォルトでwgetが行うことと似た何か ありがとう!

8
大規模なディレクトリツリーでrm -rfを実行すると数時間かかります
バックアップにrsnapshotを使用しています。バックアップされたファイルの多くのスナップショットを保持しますが、古いものを削除します。これはいい。ただしrm -rf、大規模なディレクトリツリーで実行するには約7時間かかります。ファイルシステムはXFSです。そこにいくつのファイルがあるかはわかりませんが、おそらく数百万の数字です。 とにかくスピードアップする方法はありますか?何rm -rf時間もかかり、同じ時間を要しないコマンドはありますか?

10
1つのLinuxサーバーから別のサーバーに大きなファイルをコピーする
LAデータセンターのLinuxサーバーからNYデータセンターの別のLinuxサーバーに10MBリンクを介して75ギガバイトのtgz(mysql lvmスナップショット)をコピーしようとしています。 200〜300時間の間で変動するrsyncまたはscpを使用すると、約20〜30Kb / sになります。 現時点では、2番目のデータセンターがまだアクティブになっていないため、比較的静かなリンクであり、小さなファイルの転送で優れた速度を実現しています。 グーグル経由で見つけたさまざまなtcpチューニングガイドは役に立たなかった(間違ったガイドを読んでいるかもしれませんが、良いガイドがありますか?)。 tar + netcatトンネルのヒントを見てきましたが、私の理解では、小さなファイルがたくさんある場合にのみ有効であり、ファイルの転送が効果的に終了しても更新されません。 ハードドライブを出荷する前に、何か良い情報がありますか? 更新: まあ...それは結局リンクかもしれません:(以下の私のテストを参照してください... NYからLAへの移動: 空のファイルを取得します。 [nathan@laobnas test]$ dd if=/dev/zero of=FROM_LA_TEST bs=1k count=4700000 4700000+0 records in 4700000+0 records out 4812800000 bytes (4.8 GB) copied, 29.412 seconds, 164 MB/s [nathan@laobnas test]$ scp -C obnas:/obbkup/test/FROM_NY_TEST . FROM_NY_TEST 3% 146MB 9.4MB/s 07:52 ETA スナップショットtarballを取得します。 …
20 linux  rsync  scp  files 

7
長い名前のLinux mvファイル
Linuxでは、時々次のようにファイル名を変更します。 mv dir1/dir2/dir3/file.txt dir1/dir2/dir3/file.txt.old 別のディレクトリに移動するのではなく、ファイルの名前を変更するだけです。 そのコマンドの簡略版を実行できるコマンドはありますか?私は次のようなものを考えています: mv dir1/dir2/dir3/file.txt file.txt.old または、次のようなもの(名前に追加するだけです): mv dir1/dir2/dir3/file.txt {}.old 私の目標は、完全なパスを再度指定する必要がないことです。 私が書いたそれらの「例」が機能しないことは知っていますが、それは私が何を達成したいのかという考えにすぎません。 ディレクトリにcdする必要はありません。
19 linux  filesystems  files  mv 

3
Linuxの `find`コマンドを使用して隠しファイルを表示する方法
Linuxサーバーでは、現在のディレクトリとすべてのサブディレクトリで特定のファイル拡張子を持つすべてのファイルを見つける必要があります。 以前は、常に次のコマンドを使用していました。 find . -type f | grep -i *.php ただし、.myhiddenphpfile.phpなどの隠しファイルは検出しません。以下は非表示のphpファイルを検索しますが、非表示のphpファイルは検索しません。 find . -type f | grep -i \.*.php 同じコマンドで非表示と非表示の両方のphpファイルを見つけるにはどうすればよいですか?

6
隠しファイルを再帰的にコピーする-Linux
ディレクトリ内のすべての隠しファイルを別のディレクトリに再帰的にコピーする簡単な方法はありますか?通常のファイルではなく、すべての設定ファイルをホームディレクトリにバックアップしたいと思います。私は試した: cp -R .* directory しかし、すべての隠されていないファイルも認識.し..、再帰的にコピーします。cpに.and を無視させる方法はあり..ますか?
19 linux  copy  files  cp 

1
巨大なファイルをすばやく転送するためのrsyncの最適化
これは私が必要なものです: ソースサーバーで実行されているRsyncデーモン。宛先サーバーは、次のようにrsyncプルを実行します。 rsync -ptv rsync:// source_ip:document / source_path / *。abc destination_path / 巨大なバイナリファイル(3 GB〜5 GB)は、LAN経由でソースマシンから宛先にコピーされます。したがって、暗号化/復号化は必要ありません。したがって、SSHを使用していません。宛先マシンは、rsyncデーモンに直接接続します。 rsync pullの前は、宛先フォルダーは常に空です。したがって、条件付きで一部のファイルを更新することを心配する必要はありません。Rsyncプルは、常に宛先に新しいファイルを作成します(更新ではありません)。したがって、チェックサムの計算にrsyncは必要ありません。 受信側でrsyncが消費するCPUの量に満足できませんか?上記のケースでrsyncの使用を最適化するのに役立つrsyncオプションは何ですか。私が心配しているのは、rsyncが必要以上のことをしているかもしれないということです。rsyncチェックサムファイル。必要ありません。 また、速度の改善も見たいです。 ブロックサイズの変更、チェックサムの無効化などが役立ちますか?
19 rsync  files 


3
1,000M行のMySQLテーブルの構築
この質問は、コメントの提案、複製の謝罪に基づいて、Stack Overflowから再投稿されています。 ご質問 質問1:データベーステーブルのサイズが大きくなると、どのようにMySQLを調整してLOAD DATA INFILE呼び出しの速度を上げることができますか? 質問2:コンピューターのクラスターを使用して、異なるCSVファイルをロードしたり、パフォーマンスを改善したり、強制終了したりしますか?(これは、ロードデータと一括挿入を使用した明日のベンチマークタスクです) ゴール 画像検索用の特徴検出器とクラスタリングパラメーターのさまざまな組み合わせを試しています。その結果、タイムリーに大きなデータベースを構築できる必要があります。 マシン情報 マシンには256ギガバイトのRAMがあり、データベースを配布することで作成時間を改善する方法がある場合、同じ量のRAMを使用できる別の2つのマシンがありますか? テーブルスキーマ テーブルスキーマは次のようになります +---------------+------------------+------+-----+---------+----------------+ | Field | Type | Null | Key | Default | Extra | +---------------+------------------+------+-----+---------+----------------+ | match_index | int(10) unsigned | NO | PRI | NULL | | | cluster_index | int(10) unsigned | NO | PRI …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.