これは定義上ある程度の証拠であるため、これは非常に満足のいく答えになるとは思いませんが、それでも正しいと思います(ただし、非常に数学的ではありません)。
フィードフォワードでは取得できないが、RNNで十分に近似できる関数のファミリの例を誰かが提供できますか?
いいえ。少なくとも、この関数の定義を受け入れる場合はそうではありません。
...入力のセットと許容される出力のセットとの関係。各入力は1つの出力にのみ関連しているという特性があります。[ ウィキペディア ]
我々はいくつかの仮定の機能を想像した場合入力の一部ベクトル上で動作するとまだフィードフォワードニューラルネットワーク、我々は単に使用することができるでは表現できない、伝達関数として及び出来上がり、我々はできます機能のスーパーセットを実行する単純なパーセプトロンを作成します。ψ(x)xψ(x)ψ(x)
f(x)=ψ(b+wx)
パーセプトロンの出力ミステリー関数出力を模倣するために、バイアスと重みベクトルに必要な値を理解するための演習として残しておきます。!bwf(x)ψ(x)
RNNがフィードフォワードネットワークでできないことを行うことができる唯一のことは、状態の保持です。入力が単一の出力にのみマップされるという要件により、関数は状態を保持できません。したがって、上記の歪められた例から、フィードフォワードネットワークは、任意の関数(連続的またはそれ以外)よりも(それ以上ではなく)何でも実行できることがわかります。
注:質問にお答えしたと思いますが、少し注意してください。機能が存在しない状態ではないことができ、フィードフォワードネットワークによってマッピングすることが、最も確かにされる機能があり、より良いフィードフォワードネットワーク以外のRNNに適します。以前の結果の変換がRNNに適している可能性があるため、関数内の特徴セットが簡単に表現されるように配置された関数。
この例としては、入力が連続して提示されている場合、フィボナッチ数列のn番目の数を見つけることが挙げられます。
F(x)=F(x−1)+F(x−2)
RNNは、線形変換関数のセットのみを使用してこのシーケンスを効果的に近似する場合がありますが、ステートレス関数またはフィードフォワードニューラルネットは、フィボナッチ数列の関数解を近似する必要があります。
F(x)=ϕn−ψn5√
ここで、は黄金比、です。ϕψ≈1.618
ご想像のとおり、ニューラルネットワークの設計者が利用できる通常の伝達関数の配列を考えると、最初のバリアントは概算がはるかに簡単です。