脳波データの再発(CNN)モデル


10

私は、EEGコンテキストでリカレントアーキテクチャを解釈する方法を知りたいです。具体的には、これを(LSTMのようなアーキテクチャーとは対照的に)再帰CNNと考えていますが、他のタイプの再帰ネットワークにも適用される可能性があります

R-CNNについて読んだとき、それらは通常、画像分類のコンテキストで説明されています。それらは通常、「時間をかけて学習する」または「現在の入力に対するtime-1の影響を含む」と表現されます。

この解釈/説明は、EEGデータを扱うときに本当に混乱します。脳波データで使用されているR-CNNの例はここにあります

それぞれが1x512アレイで構成されるトレーニング例があるとします。このアレイは、512の連続した時点で1つの電極の電圧測定値を取得します。これを(1D畳み込みを使用して)再発CNNへの入力として使用すると、モデルの再発部分が実際に「時間」をキャプチャしていませんよね?(前述の説明/説明によって暗示されるように)このコンテキストでは、時間はすでにアレイの2番目の次元によってキャプチャされているため

このように設定すると、ネットワークの繰り返し部分によって、通常のCNNが(時間でない場合でも)できないことを実際にモデル化できるようになりますか?

再発とは、たたみ込みを実行し、その結果を元の入力に追加し、再度たたみ込みを行うことを意味するだけのようです。これはx回の反復ステップで繰り返されます。このプロセスは実際にどのような利点をもたらしますか?


アイデンティティを学習するのは難しいため、各ステップで元の入力を維持することは有用だと思います。そのため、残余ネットワークや、入力をコピーしてほとんどの非表示レイヤーをバイパスすることが有用な場合があります。eegに適用されたRCNNの特殊なケースでは、いくつかの機能がその時点で表示されるため、畳み込みは時間t = 50msにタグを付けると想像できます。次に、ネットワークは、その特定の時間に元の入力を調べて、さらに分析できます。
agemO 2017年

回答:


1

ネットワークの繰り返し部分により、一般的に言えば、長期および短期の依存関係をモデル化できます。したがって、モデルにはある程度の状態感覚を持たせることができます。

これは通常、timeseriesを使用している場合に有利です。たとえば、心拍数モニターからのデータがあり、休息、ストレス、回復の間で分類したい場合。データポイントで心拍数が130と表示されている場合、高負荷から回復しているか、それとも他の何かから回復しているかによって異なります。

編集:2つ目の質問を忘れました。

再発とは、たたみ込みを実行し、その結果を元の入力に追加し、再度たたみ込みを行うことを意味するだけのようです。これはx回の反復ステップで繰り返されます。このプロセスは実際にどのような利点をもたらしますか?

私はいくつかの可能な答えを考えることができました。繰り返しの部分を複雑にすることで、フィルターをかけます。そのため、よりクリーンな信号が得られ、エラーはそれほどスタックしません。バニラrnnは、消える勾配の爆発に苦しんでいるので、これはそれを克服する彼のアプローチかもしれません。さらに、機能をrcnnに埋め込んでいるため、彼が述べたように、より多くの悪用経路につながる可能性があります。これにより、過剰適合しにくくなり、より一般化できます。


0
  • 1x512入力配列とは、再帰ネットワークが電極電圧を512回処理することを意味します。つまり、処理する機能は1つです。
  • 1つの機能を持つCNNは役に立たない。

-1

CNNは機能検出器であることを忘れないでください。たたみ込み層の出力は、特定の特徴が検出された場所を示す行列です。

したがって、リカレントCNNは一連の特徴を学習するリカレントニューラルネットワークであり、これらの特徴はトレーニング中にも学習されます。


2
これは誤解を招く答えです。CNNは特徴検出器ではなく、特徴空間の変換であり、変換された特徴を出力にマッピングする関数推定器です。また、OPが要求したものはまったくありません。コメントの代わりにコメントを使用してください。これにより、質問の回答が見え、他の人がクリックするのを防ぎます。
JahKnows 2017年

@JahKnows解釈次第ですが、どちらも違いますか?(yosinski.com/deepvis)をご覧ください。それはあなたを助けるかもしれません。
メディア

@ncasas段落へのリンクを提供していただけますか?
メディア
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.