ホップフィールドネットワークは、ベクターを保存し、ノイズの多いバージョンからベクターを取得できます。これらは、すべてのニューロンがベクトル値に等しく設定されている場合にエネルギー関数を最小化するために重みを設定し、そのノイズバージョンを入力として使用してベクトルを取得し、ネットがエネルギー最小値に落ち着くようにします。
ネットが最も近い最小値に落ち着くという保証がないという事実などの問題は残しておきます–問題は最終的にはボルツマンマシンで解決され、最終的には逆伝播で解決されます–ブレークスルーは、それらが抽象的な表現を持つための出発点だったということです。同じドキュメントの2つのバージョンは同じ状態を呼び起こし、ネットワークでは同じ状態で表されます。
ホップフィールド自身が1982年の論文で発表したように、創発的集団計算能力を持つニューラルネットワークと物理システム
現在のモデリングは、エンティティまたはゲシュタルトがその特徴のコレクションを表す入力に基づいてどのように記憶または分類されるかに関連している可能性があります。
一方、ディープラーニングの画期的な進歩は、入力の複数の階層表現を構築する機能であり、最終的にAI開業医の生活を容易にし、機能エンジニアリングを簡素化することにつながりました。(例えば、表現学習:レビューと新しい展望、ベンジオ、クールビル、ビンセントを参照)。
概念的な観点から、私はディープラーニングをホップフィールドネットの一般化と見なすことができると信じています。単一の表現から表現の階層までです。
計算/トポロジーの観点からもそうですか?「単純な」Hopfieldネットワークの状態(2ステートニューロン、無向、エネルギー関数)を考慮しない場合、ネットワークの各層をHopfieldネットワークとして、プロセス全体を以前に記憶されたGestaltの順次抽出、および再編成として見ることができます。これらのゲシュタルト?