セマンティック分析のためにビッグデータでliblinearを使用する


17

Libsvmを使用して、データをトレーニングし、セマンティック分析の問題の分類を予測します。ただし、セマンティック分析はn次元の問題に関係するため、大規模データのパフォーマンスの問題があります。

昨年、Liblinearがリリースされ、パフォーマンスのボトルネックを解決できます。しかし、メモリが多すぎます。あるMapReduceはビッグデータに意味解析の問題を解決する唯一の方法?または、Liblinearでメモリのボトルネックを改善できる他の方法はありますか?

回答:


11

Apache Sparkに移植されたLIBLINEARの初期バージョンがあることに注意してください。参照してください。メーリングリストのコメントいくつかの初期の詳細については、およびプロジェクトサイトを


ご回答有難うございます。SVMとは異なるように見えます。調査します。:)
Puffin GDI

4
リンクが壊れやすいため、オフサイトを回答にリンクすることはお勧めしません。そうしないと、有用なコミュニティリソースが行き止まりになってしまいます。答えを投稿に直接入れるのが常に最善です。
アナ

1
それに同意します。この時点では、とにかくそのリンク以上のものとしてはほとんど存在しません。基になるプロジェクトへのリンクを追加します。
ショーンオーウェン

10

vowpal wabbitをチェックアウトできます。大規模な学習で非常に人気があり、並行して提供されます。

彼らのウェブサイトから:

VWは機械学習の速度の本質であり、特徴のあるデータセットから簡単に学習できます。並列学習を介して、学習アルゴリズムの中で最初の線形学習を行うと、単一のマシンネットワークインターフェイスのスループットを超える可能性があります。


1
オープンソースといくつかのウィキ。よさそうだ。ご提案ありがとうございます。:)
パフィンGDI
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.