私は2つのポピュラーな事後モデルの解釈可能性のテクニックについて読んでいます:LIMEとSHAP
これら2つの手法の主な違いを理解するのに苦労しています。
SHAPの背後にある頭脳であるScott Lundbergを引用すると:
SHAP値には、LIMEのブラックボックスローカル推定の利点がありますが、ゲーム理論からの一貫性とローカル精度についての理論的保証もあります(他の統合方法からの属性)
私はこの「ゲーム理論からの一貫性と局所的精度に関する理論的保証」が何であるかを理解するのに苦労しています。SHAPはLIMEの後に開発されたので、LIMEが対処できないいくつかのギャップを埋めると思います。それらは何ですか?
シャプレー推定の章のクリストフ・モルナーの本は次のように述べています。
予測と平均予測の違いは、インスタンスの特徴値-シェイピー効率プロパティにかなり分散しています。このプロパティは、Shapley値をLIMEなどの他のメソッドとは別に設定します。ライムは、効果を完全に分配することを保証しません。Shapleyの値が完全な説明を提供する唯一の方法になる可能性があります
これを読んで、SHAPはローカルではなく、データポイントのグローカルな説明であるという感覚が得られます。私はここで間違っている可能性があり、上記の引用が何を意味するかについての洞察が必要です。私の質問を要約すると、LIMEはローカルの説明を生成します。SHAPの説明はLIMEの説明とどのように異なりますか?