タグ付けされた質問 「model-interpretation」

1
SHAP(Shapley Additive Explanation)とLIME(Local Interpretable Model-Agnostic Explanations)の比較
私は2つのポピュラーな事後モデルの解釈可能性のテクニックについて読んでいます:LIMEとSHAP これら2つの手法の主な違いを理解するのに苦労しています。 SHAPの背後にある頭脳であるScott Lundbergを引用すると: SHAP値には、LIMEのブラックボックスローカル推定の利点がありますが、ゲーム理論からの一貫性とローカル精度についての理論的保証もあります(他の統合方法からの属性) 私はこの「ゲーム理論からの一貫性と局所的精度に関する理論的保証」が何であるかを理解するのに苦労しています。SHAPはLIMEの後に開発されたので、LIMEが対処できないいくつかのギャップを埋めると思います。それらは何ですか? シャプレー推定の章のクリストフ・モルナーの本は次のように述べています。 予測と平均予測の違いは、インスタンスの特徴値-シェイピー効率プロパティにかなり分散しています。このプロパティは、Shapley値をLIMEなどの他のメソッドとは別に設定します。ライムは、効果を完全に分配することを保証しません。Shapleyの値が完全な説明を提供する唯一の方法になる可能性があります これを読んで、SHAPはローカルではなく、データポイントのグローカルな説明であるという感覚が得られます。私はここで間違っている可能性があり、上記の引用が何を意味するかについての洞察が必要です。私の質問を要約すると、LIMEはローカルの説明を生成します。SHAPの説明はLIMEの説明とどのように異なりますか?

4
解釈可能なモデルが必要な場合、線形回帰以外の方法はありますか?
ランダムフォレストや勾配ブースティングなどの「MLモデル」は説明が難しい、または「解釈できない」と考えているため、予測に線形回帰以外のモデルを使用しない統計学者がいました。 線形回帰では、仮定のセットが検証されると(エラーの正規性、等分散性、多重共線性なし)、t検定は変数の有意性をテストする方法を提供します。ランダムフォレストまたは勾配ブースティングモデル。 したがって、私の質問は、独立変数のセットで従属変数をモデル化するかどうかです。解釈可能性のために、常に線形回帰を使用する必要がありますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.