ニューラルネットワークには、ディシジョンツリーのような説明可能性がありますか?


13

デシジョンツリーでは、ツリー構造の出力を理解でき、デシジョンツリーが決定を下す方法を視覚化することもできます。したがって、決定木には説明可能性があります(その出力は簡単に説明できます)。

デシジョンツリーのように、ニューラルネットワークに説明可能性がありますか?


1
最近のモデルに依存しないフレームワークはLIMEモデルです。
エムレ

ニューラルネットワークを使用したオブジェクト認識/分類の分野では、heatmapping.orgのような決定を視覚化/説明するためにヒートマップが一般的です。チュートリアルとインタラクティブなデモが利用可能です。
ニコラスリーブル

回答:


9

次の2つの理由から、以前の回答とあなたの提案に同意しません。

1)決定木は、より複雑な決定を行うことができる単純な論理決定に基づいています。しかし、あなたの入力が1000の寸法を有し、そして学んだ機能は非常に非直線状である場合、あなたはあなただけのノードを見て、/読み、理解することはできません本当に大きいと重い決定木を取得します。

2)ニューラルネットワークは、学習する機能が非常に小さい場合にのみ理解できるという意味で、ニューラルネットワークに似ています。大きくなるとき、それらを理解するために他のトリックが必要です。@SmallChessが示唆したように、畳み込みニューラルネットワークの特定のケースについて説明する「畳み込みネットワークの視覚化と理解」と呼ばれるこの記事を読むことができます。ホイールではなく、残りのコンポーネント」。

これらの視覚化は、多くの研究者が神経構造の弱点を実際に理解し、トレーニングアルゴリズムを改善するのに役立ちました。


:-)論文自体は、深い畳み込みネットワーク自体よりも理解しにくいと感じました。非常に数学的な論文です。
HelloWorld

1
申し訳ありませんが、間違った記事を引用しました:-)私はそれを変更しました。これはよりグラフィカルです。convnetの仕組みを知っていれば、convnetを逆にするという考えはそれほど難しくありません。同様に、Googleの深い夢は逆伝播を使用して特定の出力を入力スペースに投影します。
ロビン

デコンボリューションネットワークと呼ばれるこれらのアイデアの多くをMatt Zeilerが詳しく説明しているビデオがあります
アレックス

7

いいえ。ニューラルネットワークは一般に理解するのが困難です。モデルの複雑さの代わりに予測力を使用します。NNの重みをグラフィカルに視覚化することは可能ですが、決定がどのように行われるかを正確に伝えるわけではありません。深いネットワークを理解しようとして頑張ってください。

人気のあるPythonパッケージ(および論文があります)は、NNをより単純なモデルでローカルにモデル化できます。ご覧ください。

https://github.com/marcotcr/lime


1
ハハ。私はそれがどんな感じかを知っています。 抱擁 :D
Dawny33

0

https://arxiv.org/abs/1704.02685は、NN固有のローカル説明ツールであるディープリフトを提供します。これは、説明するインスタンスと参照インスタンスとの間のアクティベーションの違いを伝播することにより機能します。参照を取得するのは少し難しいですが、ツールは全体的に解釈可能でスケーラブルなようです。表形式のデータで使用します。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.