回答:
これを達成するには、基本的に2つの方法があります。非同期環境では、シリアルとパラレルの2種類のループがあることに気づくでしょう。シリアルループは、次の反復に移る前に1つの反復が完了するのを待ちます。これにより、ループのすべての反復が順番に完了することが保証されます。並列ループでは、すべての反復が同時に開始され、1つの反復が別の反復の前に完了する場合がありますが、それは直列ループよりもはるかに高速です。したがって、この場合、ウォークが完了して結果が返される限り、ウォークが完了する順序は関係ないため、並列ループを使用する方が適切です(順序が必要でない限り)。
並列ループは次のようになります。
var fs = require('fs');
var path = require('path');
var walk = function(dir, done) {
var results = [];
fs.readdir(dir, function(err, list) {
if (err) return done(err);
var pending = list.length;
if (!pending) return done(null, results);
list.forEach(function(file) {
file = path.resolve(dir, file);
fs.stat(file, function(err, stat) {
if (stat && stat.isDirectory()) {
walk(file, function(err, res) {
results = results.concat(res);
if (!--pending) done(null, results);
});
} else {
results.push(file);
if (!--pending) done(null, results);
}
});
});
});
};
シリアルループは次のようになります。
var fs = require('fs');
var path = require('path');
var walk = function(dir, done) {
var results = [];
fs.readdir(dir, function(err, list) {
if (err) return done(err);
var i = 0;
(function next() {
var file = list[i++];
if (!file) return done(null, results);
file = path.resolve(dir, file);
fs.stat(file, function(err, stat) {
if (stat && stat.isDirectory()) {
walk(file, function(err, res) {
results = results.concat(res);
next();
});
} else {
results.push(file);
next();
}
});
})();
});
};
そして、それをホームディレクトリでテストするには(警告:ホームディレクトリに多くのものがある場合、結果リストは巨大になります):
walk(process.env.HOME, function(err, results) {
if (err) throw err;
console.log(results);
});
編集:改善された例。
file = dir + '/' + file;
これはお勧めできません。使用する必要があります: var path = require('path'); file = path.resolve(dir, file);
path.resolve(...)
すると、WindowsとUnixのどちらを使用していても適切なパスが取得さC:\\some\\foo\\path
れます。Windowsと/some/foo/path
Unixシステムのようなものを取得することを意味します
require('node-dir').files(__dirname, function(err, files) { console.log(files); });
!--
の構文、質問はそれについて尋ねてきた
これは、Promise、util / promisify、destructuring、async-await、map + reduceなどを含む、ノード8で利用可能な新しい流行語の機能を最大限に使用して、同僚が何を理解しようとしているのか頭を掻き立てます起こっている。
外部依存関係はありません。
const { promisify } = require('util');
const { resolve } = require('path');
const fs = require('fs');
const readdir = promisify(fs.readdir);
const stat = promisify(fs.stat);
async function getFiles(dir) {
const subdirs = await readdir(dir);
const files = await Promise.all(subdirs.map(async (subdir) => {
const res = resolve(dir, subdir);
return (await stat(res)).isDirectory() ? getFiles(res) : res;
}));
return files.reduce((a, f) => a.concat(f), []);
}
getFiles(__dirname)
.then(files => console.log(files))
.catch(e => console.error(e));
ノード10+用に更新され、さらに多くのウィズバンが追加されました。
const { resolve } = require('path');
const { readdir } = require('fs').promises;
async function getFiles(dir) {
const dirents = await readdir(dir, { withFileTypes: true });
const files = await Promise.all(dirents.map((dirent) => {
const res = resolve(dir, dirent.name);
return dirent.isDirectory() ? getFiles(res) : res;
}));
return Array.prototype.concat(...files);
}
ノード11.15.0以降では、ファイル配列をフラット化するfiles.flat()
代わりにArray.prototype.concat(...files)
を使用できることに注意してください。
すべての人の頭を完全に爆破したい場合は、非同期イテレータを使用して次のバージョンを使用できます。本当にクールであることに加えて、消費者は一度に1つずつ結果を取り出すことができるため、非常に大きなディレクトリに適しています。
const { resolve } = require('path');
const { readdir } = require('fs').promises;
async function* getFiles(dir) {
const dirents = await readdir(dir, { withFileTypes: true });
for (const dirent of dirents) {
const res = resolve(dir, dirent.name);
if (dirent.isDirectory()) {
yield* getFiles(res);
} else {
yield res;
}
}
}
戻り値の型がプロミスではなく非同期イテレータになったため、使用方法が変更されました
(async () => {
for await (const f of getFiles('.')) {
console.log(f);
}
})()
誰かが興味を持っている場合のために、私はここに非同期イテレータについてもっと書いています:https : //qwtel.com/posts/software/async-generators-in-the-wild/
subdir
やsubdirs
それらが実際に(私のようなものを提案するファイルであることと誤解を招くされ、itemInDir
あるいはitem_in_dir
単に偶数またはitem
その代わり。)が、このソリューションが受け入れられたものよりもクリーナーを感じているとはるかに少ないコードです。また、受け入れられた回答のコードよりもはるかに複雑だとは思いません。+1
require(fs).promises
、util.promisify
完全にドロップすることができます。個人的に私はfsをfs.promisesにエイリアスします。
withFileTypes
。先端をありがとう。
return Array.prototype.concat(...files);
たlet result = Array.prototype.concat(...files); return result.map(file => file.split('\\').join('/'));
場合、dirsが「\」ではなく「/」を返すことを確認できます。正規表現を気にしない場合は、次のこともできますreturn result.map(file => file.replace(/\\/g, '/'));
誰かが便利だと思った場合に備えて、同期バージョンも作成しました。
var walk = function(dir) {
var results = [];
var list = fs.readdirSync(dir);
list.forEach(function(file) {
file = dir + '/' + file;
var stat = fs.statSync(file);
if (stat && stat.isDirectory()) {
/* Recurse into a subdirectory */
results = results.concat(walk(file));
} else {
/* Is a file */
results.push(file);
}
});
return results;
}
ヒント:フィルタリング時に使用するリソースを少なくするため。この関数自体の中でフィルタリングします。たとえばresults.push(file);
、以下のコードに置き換えます。必要に応じて調整します。
file_type = file.split(".").pop();
file_name = file.split(/(\\|\/)/g).pop();
if (file_type == "json") results.push(file);
lstat
代わりに使用しますか?または、再帰性チェックを追加して、再帰性レベルを制限します。
A.は見持っているファイルモジュールを。これには、walkという関数があります。
file.walk(start、callback)
ファイルツリーをナビゲートし、各ディレクトリのコールバックを呼び出して(null、dirPath、dirs、files)を渡します。
これはあなたのためかもしれません!そして、はい、それは非同期です。ただし、必要な場合は、フルパスを自分で集約する必要があると思います。
B.代替案、そして私のお気に入りの1つですfind
。そのためにUNIX を使用します。なぜ再び何かをするのですか、それはすでにプログラムされていますか?多分あなたが必要とするものではないかもしれませんが、それでもチェックアウトする価値があります:
var execFile = require('child_process').execFile;
execFile('find', [ 'somepath/' ], function(err, stdout, stderr) {
var file_list = stdout.split('\n');
/* now you've got a list with full path file names */
});
Findには、変更されたフォルダが少ない限り、後続の検索を非常に高速にする優れたビルトインキャッシュメカニズムがあります。
別の素晴らしいnpmパッケージはglobです。
npm install glob
それは非常に強力であり、すべての繰り返しのニーズをカバーする必要があります。
私は実際にはglobに完全に満足していなかったので、readdirpを作成しました。
そのAPIにより、ファイルとディレクトリを再帰的に検索し、特定のフィルターを非常に簡単に適用できると確信しています。
そのドキュメントを読んで、それが何をしているかについてより良い考えを得て、以下を介してインストールしてください:
npm install readdirp
npmパッケージを使用したい場合は、レンチが最適です。
var wrench = require("wrench");
var files = wrench.readdirSyncRecursive("directory");
wrench.readdirRecursive("directory", function (error, files) {
// live your dreams
});
編集(2018):
最近読んだ人:著者は2015年にこのパッケージを廃止しました:
wrench.jsは非推奨で、しばらく更新されていません。私は、fs-extraを使用して追加のファイルシステム操作を行うことを強くお勧めします。
denodify
?コールバックは複数回(再帰的に)起動されます。したがって、を使用Q.denodify(wrench.readdirRecursive)
すると、最初の結果のみが返されます。
私は上記のchjjからの答えを気に入っていて、それがなければ私のバージョンの並列ループを作成できなかったでしょう。
var fs = require("fs");
var tree = function(dir, done) {
var results = {
"path": dir
,"children": []
};
fs.readdir(dir, function(err, list) {
if (err) { return done(err); }
var pending = list.length;
if (!pending) { return done(null, results); }
list.forEach(function(file) {
fs.stat(dir + '/' + file, function(err, stat) {
if (stat && stat.isDirectory()) {
tree(dir + '/' + file, function(err, res) {
results.children.push(res);
if (!--pending){ done(null, results); }
});
} else {
results.children.push({"path": dir + "/" + file});
if (!--pending) { done(null, results); }
}
});
});
});
};
module.exports = tree;
Gistも作成しました。コメントを歓迎します。私はまだNodeJSレルムから始めているので、それは私がもっと学びたい1つの方法です。
再帰あり
var fs = require('fs')
var path = process.cwd()
var files = []
var getFiles = function(path, files){
fs.readdirSync(path).forEach(function(file){
var subpath = path + '/' + file;
if(fs.lstatSync(subpath).isDirectory()){
getFiles(subpath, files);
} else {
files.push(path + '/' + file);
}
});
}
呼び出す
getFiles(path, files)
console.log(files) // will log all files in directory
/
、path
モジュールを使用することをお勧めします:path.join(searchPath, file)
。そうすれば、OSに関係なく正しいパスを取得できます。
node-dirを使用して、好みの出力を正確に生成します
var dir = require('node-dir');
dir.files(__dirname, function(err, files) {
if (err) throw err;
console.log(files);
//we have an array of files now, so now we can iterate that array
files.forEach(function(path) {
action(null, path);
})
});
私は最近これをコーディングしましたが、これをここで共有することは理にかなっていると思いました。コードは非同期ライブラリを利用します。
var fs = require('fs');
var async = require('async');
var scan = function(dir, suffix, callback) {
fs.readdir(dir, function(err, files) {
var returnFiles = [];
async.each(files, function(file, next) {
var filePath = dir + '/' + file;
fs.stat(filePath, function(err, stat) {
if (err) {
return next(err);
}
if (stat.isDirectory()) {
scan(filePath, suffix, function(err, results) {
if (err) {
return next(err);
}
returnFiles = returnFiles.concat(results);
next();
})
}
else if (stat.isFile()) {
if (file.indexOf(suffix, file.length - suffix.length) !== -1) {
returnFiles.push(filePath);
}
next();
}
});
}, function(err) {
callback(err, returnFiles);
});
});
};
次のように使用できます。
scan('/some/dir', '.ext', function(err, files) {
// Do something with files that ends in '.ext'.
console.log(files);
});
Filehoundと呼ばれるライブラリは別のオプションです。指定されたディレクトリ(デフォルトでは作業ディレクトリ)を再帰的に検索します。さまざまなフィルター、コールバック、プロミス、同期検索をサポートしています。
たとえば、現在の作業ディレクトリですべてのファイルを検索します(コールバックを使用)。
const Filehound = require('filehound');
Filehound.create()
.find((err, files) => {
if (err) {
return console.error(`error: ${err}`);
}
console.log(files); // array of files
});
または、特定のディレクトリを約束して指定する:
const Filehound = require('filehound');
Filehound.create()
.paths("/tmp")
.find()
.each(console.log);
その他の使用例と使用例については、ドキュメントを参照してください:https : //github.com/nspragg/filehound
免責事項:私は作者です。
async / awaitを使用すると、これは機能するはずです。
const FS = require('fs');
const readDir = promisify(FS.readdir);
const fileStat = promisify(FS.stat);
async function getFiles(dir) {
let files = await readDir(dir);
let result = files.map(file => {
let path = Path.join(dir,file);
return fileStat(path).then(stat => stat.isDirectory() ? getFiles(path) : path);
});
return flatten(await Promise.all(result));
}
function flatten(arr) {
return Array.prototype.concat(...arr);
}
bluebird.Promisifyまたはこれを使用できます。
/**
* Returns a function that will wrap the given `nodeFunction`. Instead of taking a callback, the returned function will return a promise whose fate is decided by the callback behavior of the given node function. The node function should conform to node.js convention of accepting a callback as last argument and calling that callback with error as the first argument and success value on the second argument.
*
* @param {Function} nodeFunction
* @returns {Function}
*/
module.exports = function promisify(nodeFunction) {
return function(...args) {
return new Promise((resolve, reject) => {
nodeFunction.call(this, ...args, (err, data) => {
if(err) {
reject(err);
} else {
resolve(data);
}
})
});
};
};
Node 8+にはPromisifyが組み込まれています
結果をさらに速くできるジェネレーターアプローチについては、他の回答を参照してください。
非同期
const fs = require('fs')
const path = require('path')
const readdir = (p, done, a = [], i = 0) => fs.readdir(p, (e, d = []) =>
d.map(f => readdir(a[a.push(path.join(p, f)) - 1], () =>
++i == d.length && done(a), a)).length || done(a))
readdir(__dirname, console.log)
同期
const fs = require('fs')
const path = require('path')
const readdirSync = (p, a = []) => {
if (fs.statSync(p).isDirectory())
fs.readdirSync(p).map(f => readdirSync(a[a.push(path.join(p, f)) - 1], a))
return a
}
console.log(readdirSync(__dirname))
非同期読み取り可能
function readdir (currentPath, done, allFiles = [], i = 0) {
fs.readdir(currentPath, function (e, directoryFiles = []) {
if (!directoryFiles.length)
return done(allFiles)
directoryFiles.map(function (file) {
var joinedPath = path.join(currentPath, file)
allFiles.push(joinedPath)
readdir(joinedPath, function () {
i = i + 1
if (i == directoryFiles.length)
done(allFiles)}
, allFiles)
})
})
}
readdir(__dirname, console.log)
注:どちらのバージョンもシンボリックリンクに従います(元のと同じfs.readdir
)
final-fsライブラリを確認してください。それはreaddirRecursive
機能を提供します:
ffs.readdirRecursive(dirPath, true, 'my/initial/path')
.then(function (files) {
// in the `files` variable you've got all the files
})
.otherwise(function (err) {
// something went wrong
});
この例ではwhen.js promiseライブラリを使用しています。
var fs = require('fs')
, path = require('path')
, when = require('when')
, nodefn = require('when/node/function');
function walk (directory, includeDir) {
var results = [];
return when.map(nodefn.call(fs.readdir, directory), function(file) {
file = path.join(directory, file);
return nodefn.call(fs.stat, file).then(function(stat) {
if (stat.isFile()) { return results.push(file); }
if (includeDir) { results.push(file + path.sep); }
return walk(file, includeDir).then(function(filesInDir) {
results = results.concat(filesInDir);
});
});
}).then(function() {
return results;
});
};
walk(__dirname).then(function(files) {
console.log(files);
}).otherwise(function(error) {
console.error(error.stack || error);
});
にincludeDir
設定しtrue
た場合にファイルリストにディレクトリを含めるオプションのパラメータを含めました。
klawとklaw-syncは、この種のことを検討する価値があります。これらはnode-fs-extraの一部でした。
これがさらに別の実装です。上記のソリューションには制限がありません。そのため、ディレクトリ構造が大きい場合、それらはすべてスラッシュし、最終的にリソースが不足します。
var async = require('async');
var fs = require('fs');
var resolve = require('path').resolve;
var scan = function(path, concurrency, callback) {
var list = [];
var walker = async.queue(function(path, callback) {
fs.stat(path, function(err, stats) {
if (err) {
return callback(err);
} else {
if (stats.isDirectory()) {
fs.readdir(path, function(err, files) {
if (err) {
callback(err);
} else {
for (var i = 0; i < files.length; i++) {
walker.push(resolve(path, files[i]));
}
callback();
}
});
} else {
list.push(path);
callback();
}
}
});
}, concurrency);
walker.push(path);
walker.drain = function() {
callback(list);
}
};
50の同時実行性を使用することは非常にうまく機能し、小さなディレクトリ構造の単純な実装とほぼ同じくらい高速です。
再帰のreaddirモジュールは、この機能を備えています。
私はブルーバードで動作するようにトレヴァーシニアのプロミスベースの回答を変更しました
var fs = require('fs'),
path = require('path'),
Promise = require('bluebird');
var readdirAsync = Promise.promisify(fs.readdir);
var statAsync = Promise.promisify(fs.stat);
function walkFiles (directory) {
var results = [];
return readdirAsync(directory).map(function(file) {
file = path.join(directory, file);
return statAsync(file).then(function(stat) {
if (stat.isFile()) {
return results.push(file);
}
return walkFiles(file).then(function(filesInDir) {
results = results.concat(filesInDir);
});
});
}).then(function() {
return results;
});
}
//use
walkDir(__dirname).then(function(files) {
console.log(files);
}).catch(function(e) {
console.error(e); {
});
楽しみのために、highland.jsストリームライブラリで動作するフローベースのバージョンを示します。それはビクターヴによって共同執筆されました。
###
directory >---m------> dirFilesStream >---------o----> out
| |
| |
+--------< returnPipe <-----------+
legend: (m)erge (o)bserve
+ directory has the initial file
+ dirListStream does a directory listing
+ out prints out the full path of the file
+ returnPipe runs stat and filters on directories
###
_ = require('highland')
fs = require('fs')
fsPath = require('path')
directory = _(['someDirectory'])
mergePoint = _()
dirFilesStream = mergePoint.merge().flatMap((parentPath) ->
_.wrapCallback(fs.readdir)(parentPath).sequence().map (path) ->
fsPath.join parentPath, path
)
out = dirFilesStream
# Create the return pipe
returnPipe = dirFilesStream.observe().flatFilter((path) ->
_.wrapCallback(fs.stat)(path).map (v) ->
v.isDirectory()
)
# Connect up the merge point now that we have all of our streams.
mergePoint.write directory
mergePoint.write returnPipe
mergePoint.end()
# Release backpressure. This will print files as they are discovered
out.each H.log
# Another way would be to queue them all up and then print them all out at once.
# out.toArray((files)-> console.log(files))
Promises(Q)を使用して、Functionalスタイルでこれを解決します。
var fs = require('fs'),
fsPath = require('path'),
Q = require('q');
var walk = function (dir) {
return Q.ninvoke(fs, 'readdir', dir).then(function (files) {
return Q.all(files.map(function (file) {
file = fsPath.join(dir, file);
return Q.ninvoke(fs, 'lstat', file).then(function (stat) {
if (stat.isDirectory()) {
return walk(file);
} else {
return [file];
}
});
}));
}).then(function (files) {
return files.reduce(function (pre, cur) {
return pre.concat(cur);
});
});
};
配列のpromiseを返すため、次のように使用できます。
walk('/home/mypath').then(function (files) { console.log(files); });
ブルーバードpromise.coroutineの使用:
let promise = require('bluebird'),
PC = promise.coroutine,
fs = promise.promisifyAll(require('fs'));
let getFiles = PC(function*(dir){
let files = [];
let contents = yield fs.readdirAsync(dir);
for (let i = 0, l = contents.length; i < l; i ++) {
//to remove dot(hidden) files on MAC
if (/^\..*/.test(contents[i])) contents.splice(i, 1);
}
for (let i = 0, l = contents.length; i < l; i ++) {
let content = path.resolve(dir, contents[i]);
let contentStat = yield fs.statAsync(content);
if (contentStat && contentStat.isDirectory()) {
let subFiles = yield getFiles(content);
files = files.concat(subFiles);
} else {
files.push(content);
}
}
return files;
});
//how to use
//easy error handling in one place
getFiles(your_dir).then(console.log).catch(err => console.log(err));
みんな自分で書くので作ってみました。
walk(dir、cb、endCb)cb(file)endCb(err | null)
汚れた
module.exports = walk;
function walk(dir, cb, endCb) {
var fs = require('fs');
var path = require('path');
fs.readdir(dir, function(err, files) {
if (err) {
return endCb(err);
}
var pending = files.length;
if (pending === 0) {
endCb(null);
}
files.forEach(function(file) {
fs.stat(path.join(dir, file), function(err, stats) {
if (err) {
return endCb(err)
}
if (stats.isDirectory()) {
walk(path.join(dir, file), cb, function() {
pending--;
if (pending === 0) {
endCb(null);
}
});
} else {
cb(path.join(dir, file));
pending--;
if (pending === 0) {
endCb(null);
}
}
})
});
});
}
loaddir https://npmjs.org/package/loaddirを確認して ください。
npm install loaddir
loaddir = require('loaddir')
allJavascripts = []
loaddir({
path: __dirname + '/public/javascripts',
callback: function(){ allJavascripts.push(this.relativePath + this.baseName); }
})
拡張機能が必要な場合fileName
はbaseName
、代わりにを使用できます。
追加のボーナスは、ファイルも監視し、コールバックを再度呼び出すことです。非常に柔軟な設定オプションがたくさんあります。
私はちょうどリメイクguard
短い間にloaddirを使用してルビーから宝石を
これが私の答えです。それが誰かを助けることを願っています。
私の焦点は、検索ルーチンがどこででも停止できるようにすることであり、見つかったファイルについて、元のパスへの相対的な深さを伝えます。
var _fs = require('fs');
var _path = require('path');
var _defer = process.nextTick;
// next() will pop the first element from an array and return it, together with
// the recursive depth and the container array of the element. i.e. If the first
// element is an array, it'll be dug into recursively. But if the first element is
// an empty array, it'll be simply popped and ignored.
// e.g. If the original array is [1,[2],3], next() will return [1,0,[[2],3]], and
// the array becomes [[2],3]. If the array is [[[],[1,2],3],4], next() will return
// [1,2,[2]], and the array becomes [[[2],3],4].
// There is an infinity loop `while(true) {...}`, because I optimized the code to
// make it a non-recursive version.
var next = function(c) {
var a = c;
var n = 0;
while (true) {
if (a.length == 0) return null;
var x = a[0];
if (x.constructor == Array) {
if (x.length > 0) {
a = x;
++n;
} else {
a.shift();
a = c;
n = 0;
}
} else {
a.shift();
return [x, n, a];
}
}
}
// cb is the callback function, it have four arguments:
// 1) an error object if any exception happens;
// 2) a path name, may be a directory or a file;
// 3) a flag, `true` means directory, and `false` means file;
// 4) a zero-based number indicates the depth relative to the original path.
// cb should return a state value to tell whether the searching routine should
// continue: `true` means it should continue; `false` means it should stop here;
// but for a directory, there is a third state `null`, means it should do not
// dig into the directory and continue searching the next file.
var ls = function(path, cb) {
// use `_path.resolve()` to correctly handle '.' and '..'.
var c = [ _path.resolve(path) ];
var f = function() {
var p = next(c);
p && s(p);
};
var s = function(p) {
_fs.stat(p[0], function(err, ss) {
if (err) {
// use `_defer()` to turn a recursive call into a non-recursive call.
cb(err, p[0], null, p[1]) && _defer(f);
} else if (ss.isDirectory()) {
var y = cb(null, p[0], true, p[1]);
if (y) r(p);
else if (y == null) _defer(f);
} else {
cb(null, p[0], false, p[1]) && _defer(f);
}
});
};
var r = function(p) {
_fs.readdir(p[0], function(err, files) {
if (err) {
cb(err, p[0], true, p[1]) && _defer(f);
} else {
// not use `Array.prototype.map()` because we can make each change on site.
for (var i = 0; i < files.length; i++) {
files[i] = _path.join(p[0], files[i]);
}
p[2].unshift(files);
_defer(f);
}
});
}
_defer(f);
};
var printfile = function(err, file, isdir, n) {
if (err) {
console.log('--> ' + ('[' + n + '] ') + file + ': ' + err);
return true;
} else {
console.log('... ' + ('[' + n + '] ') + (isdir ? 'D' : 'F') + ' ' + file);
return true;
}
};
var path = process.argv[2];
ls(path, printfile);
これは、サブディレクトリを含むすべてのファイルを取得する再帰的な方法です。
const FileSystem = require("fs");
const Path = require("path");
//...
function getFiles(directory) {
directory = Path.normalize(directory);
let files = FileSystem.readdirSync(directory).map((file) => directory + Path.sep + file);
files.forEach((file, index) => {
if (FileSystem.statSync(file).isDirectory()) {
Array.prototype.splice.apply(files, [index, 1].concat(getFiles(file)));
}
});
return files;
}
別のシンプルで役立つもの
function walkDir(root) {
const stat = fs.statSync(root);
if (stat.isDirectory()) {
const dirs = fs.readdirSync(root).filter(item => !item.startsWith('.'));
let results = dirs.map(sub => walkDir(`${root}/${sub}`));
return [].concat(...results);
} else {
return root;
}
}
これは、nodejs fs.readdir関数を使用してディレクトリを再帰的に検索する方法です。
const fs = require('fs');
const mime = require('mime-types');
const readdirRecursivePromise = path => {
return new Promise((resolve, reject) => {
fs.readdir(path, (err, directoriesPaths) => {
if (err) {
reject(err);
} else {
if (directoriesPaths.indexOf('.DS_Store') != -1) {
directoriesPaths.splice(directoriesPaths.indexOf('.DS_Store'), 1);
}
directoriesPaths.forEach((e, i) => {
directoriesPaths[i] = statPromise(`${path}/${e}`);
});
Promise.all(directoriesPaths).then(out => {
resolve(out);
}).catch(err => {
reject(err);
});
}
});
});
};
const statPromise = path => {
return new Promise((resolve, reject) => {
fs.stat(path, (err, stats) => {
if (err) {
reject(err);
} else {
if (stats.isDirectory()) {
readdirRecursivePromise(path).then(out => {
resolve(out);
}).catch(err => {
reject(err);
});
} else if (stats.isFile()) {
resolve({
'path': path,
'type': mime.lookup(path)
});
} else {
reject(`Error parsing path: ${path}`);
}
}
});
});
};
const flatten = (arr, result = []) => {
for (let i = 0, length = arr.length; i < length; i++) {
const value = arr[i];
if (Array.isArray(value)) {
flatten(value, result);
} else {
result.push(value);
}
}
return result;
};
ノードのプロジェクトルートに「/ database」というパスがあるとします。この約束が解決されると、「/データベース」の下にあるすべてのファイルの配列が吐き出されます。
readdirRecursivePromise('database').then(out => {
console.log(flatten(out));
}).catch(err => {
console.log(err);
});