タグ付けされた質問 「lime」

1
SHAP(Shapley Additive Explanation)とLIME(Local Interpretable Model-Agnostic Explanations)の比較
私は2つのポピュラーな事後モデルの解釈可能性のテクニックについて読んでいます:LIMEとSHAP これら2つの手法の主な違いを理解するのに苦労しています。 SHAPの背後にある頭脳であるScott Lundbergを引用すると: SHAP値には、LIMEのブラックボックスローカル推定の利点がありますが、ゲーム理論からの一貫性とローカル精度についての理論的保証もあります(他の統合方法からの属性) 私はこの「ゲーム理論からの一貫性と局所的精度に関する理論的保証」が何であるかを理解するのに苦労しています。SHAPはLIMEの後に開発されたので、LIMEが対処できないいくつかのギャップを埋めると思います。それらは何ですか? シャプレー推定の章のクリストフ・モルナーの本は次のように述べています。 予測と平均予測の違いは、インスタンスの特徴値-シェイピー効率プロパティにかなり分散しています。このプロパティは、Shapley値をLIMEなどの他のメソッドとは別に設定します。ライムは、効果を完全に分配することを保証しません。Shapleyの値が完全な説明を提供する唯一の方法になる可能性があります これを読んで、SHAPはローカルではなく、データポイントのグローカルな説明であるという感覚が得られます。私はここで間違っている可能性があり、上記の引用が何を意味するかについての洞察が必要です。私の質問を要約すると、LIMEはローカルの説明を生成します。SHAPの説明はLIMEの説明とどのように異なりますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.