フィールド対応の因数分解マシン(FFM)が標準の因数分解マシン(FM)と比較してどのように説明できるか?
標準:http : //www.ismll.uni-hildesheim.de/pub/pdfs/Rendle2010FM.pdf
「Field Aware」:http : //www.csie.ntu.edu.tw/~r01922136/kaggle-2014-criteo.pdf
フィールド対応の因数分解マシン(FFM)が標準の因数分解マシン(FM)と比較してどのように説明できるか?
標準:http : //www.ismll.uni-hildesheim.de/pub/pdfs/Rendle2010FM.pdf
「Field Aware」:http : //www.csie.ntu.edu.tw/~r01922136/kaggle-2014-criteo.pdf
回答:
高レベルの説明を求めているようです。元の投稿のスライド内でリンクされているスライドを参照すると、FM(スライド11)とFFM(スライド12)の比較があります。
簡単な例として、ユーザーと映画について学習している場合、FMには次の要因がある可能性があります。
w_{user_1}*w_{movie_1}*... + w{user_1}*w_{genre_1}*...
FFMは次のようになります。
w_{user_1, movies}*w_{movie_1, users}*... + w{user_1, genres}*w_{genre_1, users}*...
主な違いは、FMでは、w_{user_1}
係数が両方の用語で同じであるということです。ユーザーの単一の概念があります。FFMでは、w_{user_1}
映画やジャンルとの相互作用など、コンテキストごとに個別に学習します。特定の映画やジャンルごとに個別に学習するのではなく、一般に映画やジャンルごとに学習することに注意してください。つまり、インタラクションのタイプごとにユーザーのコンテキストを個別に学習します。
また、その用語はユーザーであると対話しているw_{movie_1}
ためw_{movie_1, users}
、に移動したことにも注意してくださいw_{user_1}
。
標準的な因数分解マシンにもフィールドがあります。ここでの「目新しさ」は、GBDT機能の使用とハッシュトリックの適用のようです。それほど効果的ではないようですが、最後のスライドでパフォーマンスの範囲を確認してください。