ニューラルネットワーク-バイナリ対離散/連続入力


14

(1; 3)のように、すべての入力ノード(バックプロパゲーションの有無にかかわらず)のフィードフォワードネットワークの入力として、離散または連続正規化値よりもバイナリ値(0/1)を好む理由はありますか?

もちろん、私はどちらかの形式に変換できる入力についてのみ話します。たとえば、複数の値を取ることができる変数がある場合、それらを1つの入力ノードの値として直接供給するか、離散値のバイナリノードを形成します。そして、想定されるのは、可能な値の範囲がすべての入力ノードで同じになるということです。両方の可能性の例については、写真を参照してください。

このトピックについて研究している間、私はこれに関する冷たくて難しい事実を見つけることができませんでした。多かれ少なかれ、最終的には常に「試行錯誤」になるようです。もちろん、すべての離散入力値のバイナリノードは、より多くの入力層ノード(したがって、より多くの隠れ層ノード)を意味しますが、1つのノードに同じ値を持ち、隠れ層?

それは「試してみる」だけであることに同意しますか、またはこれについて別の意見がありますか? 可能性1:可能な値の直接入力{1; 3} 可能性2:各入力値をバイナリノードに取得

回答:


11

fwバツ+bfバツ

fwバツ+bwbk

kk


簡単に言えば、変数のスケールを指します:メートル法、順序、名義。さて、名目上のスケールを「計算」したり、関数で表したりすることはできないことは明らかだと思います。実際の値については、あなたのように、より滑らかなトラニションにより、実際の値は「分類された」実際の値よりも「良い」かもしれないと思う傾向がありますが、それに関する確固たる証拠は見つかりませんでした。私にとっては「試行錯誤」の別のケースのようです。
チルコ

4

はい、あります。バイナリ分類器を構築することが目標だと想像してください。次に、特徴ベクトルが与えられると、結果が1つのクラスまたは反対のクラスに属するベルヌーイ分布の推定として問題をモデル化します。このようなニューラルネットワークの出力は、条件付き確率です。0.5より大きい場合はクラスに関連付け、それ以外の場合は他のクラスに関連付けます。

E=yバツt1yバツ1t
yバツtt{01}

正規化された入力は、ネットワークが生成するバイナリ出力に似ているため、入力値の可変範囲よりも優先されることを理解しています。しかし、私の質問では、特定の範囲の正規化された離散値を参照したいと考えました。つまり、入力が範囲内にある場合、すべてのノードは同じ範囲を持つ必要があります。その場合、各離散値にバイナリノードを使用することは依然として望ましいでしょうか?(私は今、この前提条件を満たすために質問を編集しました)
チルコ

1

問題を解決するときにも、同じジレンマに直面しました。両方のアーキテクチャを試したわけではありませんが、入力変数が離散の場合、ニューラルネットワークの出力関数はインパルス関数の特性を持ち、ニューラルネットワークはインパルス関数のモデリングに適しています。実際、ニューラルネットワークの複雑さに応じてさまざまな精度で任意の関数をニューラルネットワークでモデル化できます。唯一の違いは、最初のアーキテクチャでは入力数を増やしてインパルス関数をモデル化するために最初の隠れ層のノードの重みを増やすことですが、2番目のアーキテクチャでは最初のアーキテクチャと比較して隠れ層のノードの数が多く必要です同じパフォーマンスを得るために。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.