単語のバッグの類似性を定量化する


7

最も一般的な単語と2つの異なる記事の頻度を含む2つのデータセットがあります。

例えば:

A = [apple: 23, healthy: 15, tasty: 4]
B = [apple: 19, healthy: 21, bad: 7]

両方のデータセットに類似した単語が含まれています。2つの記事が同じことについて話しているかどうかを知るための指標を見つけたいと思います。この場合、彼らはリンゴとその健康上の利点について話し合っているかもしれません。

のような単純な測定値を取得できますsimilarity = words in A and B / total number of wordsが、頻度を重みとして使用するより正式な測定値がありますか?


前のタイトルは、両方のバッグに同じ数の異なる単語があることを知っていることを示唆しています。これは本当にあなたが意味することですか?また、なぜこれが保証されるのか。あなただけを選択しているということですかn各記事から最も頻繁に出てくる単語は?
コディオロジスト2017

nどちらの記事も選択できます。サイズが異なる可能性もありますが、基本的に保証できるように、最も一般的な上位10の単語のみを返します。
カブ2017

テクニックはたくさんあります。Tfidf(用語頻度逆ドキュメント頻度)とbm25は、最初に役立つかもしれません
seanv507

TF-IDFは、Okapi-BM25が特別な場合にすぎず、BoWカウントを変換する方法ですが、それ自体では、(変換された)ベクトル間の類似性は得られません。
fnl 2017

回答:


11

一般に、離散変数のコレクションを比較する、単語のバッグとドキュメント(カウント)ベクトルの4つの最も一般的な類似性メトリックについて説明することで、これに対処します。

一般にコサイン類似度が最も頻繁に使用されますが、常に最初に測定し、他の類似度が問題に対してより良い結果を生み出さないことを確認して、より複雑な測定のいくつかを使用できるかどうかを評価します。Jaccardのセットの類似性を除いて、これらのメジャーを使用する前に、ドキュメントカウント/ベクトルに何らかの形式のTF-IDF再重み付け(ff)を適用することができます(実際に必要な場合があります。TF重み付け用語はOkapi-BM25である可能性が あり、IDF用語はコーパスエントロピーで置き換えられますが、結局、手元にある元の質問(BoW類似度)とはほとんど関係がありません。

最初の指標であるJaccardの類似性には、重大なマイナス面があります。これは、ドキュメント間の長さの違いの影響が最も大きく、単語の出現頻度も考慮されていませ。コサイン類似性とχ2- ベクトルを単位長に正規化することで(つまり、TF-IDFの再重み付けに加えて)ベクトルを調整できる(またはそうすべき)距離。しかし、それでも、明確な理由により、短いドキュメントは長いドキュメントと比較してスパースカウントが多くなります(つまり、ベクトルのゼロが多くなります)。(そのスパース差の周りに一つの方法は、可能性だけ動的カットオフ値を使用して、いくつかの最小カットオフ上記の単語を含むようにすることを文書の長さが増加します。)

メジャーを説明する前に、この説明は対称メジャーのみに焦点を当てていることに言及する必要がありますが、非対称メジャーも存在します(特に、KLダイバージェンス)。

1. Jaccardの類似性J

これは最も単純なメトリックです。両方のドキュメント(ツイート、文など)のすべての単語のセットを収集します。 A そして B、2つのセットに共通する単語の割合を測定します。

JA,B=|AB||AB|

このメジャーは、文字(または単語)のセットを収集することにより、単語(およびドキュメント)にも機能します。 n-グラム、場所 nただし、Jaccardの類似性には限界があることに注意してください。のシーケンスA されていた (x,y,z,x,y,z,x,y,z) との B ただだった (x,y,z)、それでもJaccardの類似性は完璧です(つまり、 1.0)、今説明したn-gramの「トリック」を使用しない限り。

最後に、ダイス係数はD はJaccard類似性のやや複雑なバージョンですが、単語数も考慮されていません。 J なので: D=2J1+J

2. コサイン類似度α

コサインの類似性は、おそらく最も一般的なメトリックです。両方のドキュメント(ツイート、文章など)からすべての単語数の順序付けられたセットを収集します。A そして B、つまり、事実上、2つの「ドキュメント ベクトルa そして b、2つのベクトル間のコサイン角度を測定します。

αA,B=ab|a||b|=aibiai2bi2

これで、ベクトルを単位ベクトルに正規化できるため(つまり、 |z|一部)この計算を行う前に、実際には2つのベクトル間の内積を計算するだけで類似性を計算できます。これは、すべてのペアの積の合計にすぎません。最近のCPUでは、ドット積を特に効率的に計算できます。

3. スピアマンの順位相関係数ρ

各単語のカウントを使用する代わりに、各ドキュメントの単語をそれらのカウントで順序付け、それにより、いずれかのドキュメントの各単語にランクを割り当てます。A そして B。そのため、ドキュメントベクトルを長さ正規化する必要がなくなります。ウィキペディアの命名法を使用して、ランク生成関数を呼び出しましょう(与えられた単語のランクを見つけます)i (word、count)タプルリストから X、またはドキュメントベクトル xrg。第二に、その距離を定義しましょうd 同じ言葉の間 i 2つのドキュメントの中で di=rg(A,i)rg(B,i)。あれは、d2つのランクの差。等しい場合はゼロ、それ以外の場合はゼロ以外。これにより、係数は整数から次のように計算できます。

ρA,B=16di2n(n21)

この定式化には強い要件があることに注意してください。すべてのランクは異なる必要があるため、同順位の場合(2つの単語が同じドキュメントで同じ数である場合)でも、異なるランクを割り当てる必要があります。その場合は、英数字の順序を使用することをお勧めします。また、1つのドキュメントにのみ出現する単語については、他のドキュメントの最後の位置に配置します(ここでも同じ英数字順を使用します)。この類似度を計算する前にTF-IDFでカウントを再重み付けすることで、カウントがゼロでない単語間のつながりをはるかに少なくできることに注意してください。

タイを維持したい場合(つまり、すべてのランクを「人工的に」区別したくない場合)、または(単語、カウント)タプルの一部を削除するためにカットオフを使用している場合、または最上位のみを選択している場合 n 最も頻度の高い単語ですが、標準的な式を使用する必要があります ρ (そして定義する rgドキュメントのすべての英数字順に並べられた(単語、カウント)タプルの完全なランクベクトルを生成する関数としてXの文書ベクトルx):

ρA,B=cov(rg(a),rg(b))σrgAσrgB

どこ cov2つのドキュメントのランク間の共分散です。σrgX (カットオフの可能性がある)ランクの標準偏差 rg (ネクタイ付き)資料の X

簡単に言うと、このアプローチは、Jaccardの類似性とCosineの類似性の中間にあると見ることができます。特に、ドキュメント全体の単語の頻度を考慮しながら、ドキュメント間の単語数の分布の違いに対して(もう少し-次の指標を参照)堅牢です。ただし、ほとんどの作品では、コサイン類似度はスピアマンのランク補正よりも優れているように見えますが、これをテストする必要があります。TF-IDFとスピアマンで良い結果が得られる可能性があります。あなたのドキュメントのベクトルの。

4. (ピアソンのχ2 テストベース) χ2 距離

これまでのところ、すべての類似性測定は単語頻度の均一を前提としています。つまり、コレクション(「コーパス」)のすべてのドキュメント間で単語数の分散が等しいと想定しています。ケース。つまり、以前、Kilgarriff(1997)は、χ2上記の測定値よりも単語数を比較するのに適しています。ただし、今日のコーパス比較(機能選択を行うためなど)のために現在の調査を行っている場合は、おそらく、代わりにブートストラップテストを使用する必要があります。χ2

キルガリフ χ2 比較はドキュメントにも同様に適用できます(2つの「クラス」、つまり2つのドキュメントしかないため、 d.f.=1)、およびその堅牢性により、これまでに示した類似性の測定よりも望ましい場合があります。このアプローチでは距離が得られるため、この値を類似度に変換するには、その逆数をとる必要があります(つまり、この距離が大きいほど、ドキュメントの類似度は小さくなります)。ドキュメント内のすべての単語の数を定義しましょうX なので nX=xi 両方のドキュメントの合計 A そして B なので n=nA+nB。次に、χ22つのドキュメント(ドキュメントベクトル)の統計ベースの距離は、ピアソンの基本公式から導出できます。(OiEi)2Ei なので:

χA,B2=n[ai2nA(ai+bi)+bi2nB(ai+bi)]n

ただし、この計算は計算にはるかにコストがかかります。おそらくそれ自体で、ほとんどのアプローチがコサイン類似性に固執する理由を説明し、さらに、分類/取得/クラスタリングの結果がこの後者の距離測定から得られないことを確認できる場合はなおさらです。また、リンク先の論文で示されているように、この距離測定は、TF-IDFの再重み付けとコサインの類似性を打ち負かすようには見えません。ただし、リンクされた論文では、「生の」用語の頻度カウントを使用してこの距離測定値を計算し、それをTF-IDF再重み付けコサイン類似度と比較しています。すでに説明したように、通常、まずドキュメントのベクトルを単語数(つまり、長さ)で正規化して、良好な結果を得る、つまり変換することをお勧めします。X/nX 最初に(そして、その前にTF-IDFドキュメントベクトルの再重み付けを適用することもできます)。この場合、上記の式は(少し)単純化されます。

χA,B2=2[ai2ai+bi+bi2ai+bi]2
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.