約100000個の小さなファイルのディレクトリがあります(各ファイルは1〜3行で、各ファイルはテキストファイルです)。ディレクトリのサイズはそれほど大きくありません(2GB未満)。このデータは、専門的に管理されたNFSサーバーにあります。サーバーはLinuxを実行します。ファイルシステムはext3だと思いますが、確かにわかりません。また、サーバーへのルートアクセス権がありません。
これらのファイルは、私が制御できない大規模な科学実験の出力です。ただし、結果を分析する必要があります。
このディレクトリでのI / O操作/処理は非常に遅くなります。ファイルを開く(Pythonでfopen)、開いているファイルから読み取る、ファイルを閉じる、すべて非常に遅いです。bash ls、duなどでは機能しません。
質問は:
処理、fopen、読み取りなどを実行するのに実用的な方法で、Linuxのディレクトリ内のファイルの最大数はいくつですか?答えは、fsタイプ、カーネルバージョン、サーバーバージョン、ハードウェアなど、多くのものに依存することを理解しています。可能な場合は、経験則が必要です。