ニューラルネットワークは


12

有名なTensorflow Fizz BuzzジョークとXOr問題の精神に基づいて、y=x2関数を実装するニューラルネットワークを設計することが可能であれば、私は考え始めましたか?

数値の表現(たとえば、バイナリ形式のベクトルとして、その数5はとして表される[1,0,1,0,0,0,0,...])が与えられると、ニューラルネットワークはその二乗(この場合は25)を返すことを学習する必要があります。

y=x2実装できれば、おそらくy=x3と一般的にxの任意の多項式を実装できます。次に、テイラー級数を使用して、y=sin(x)近似できます。これにより、フィズバズ問題-ニューラルネットワークが解決されます分割の残りを見つけることができます。

明らかに、NNの線形部分だけではこのタスクを実行できないため、乗算を実行できれば、アクティベーション関数のおかげでそれが発生します。

テーマについてアイデアや読書を提案できますか?

回答:


10

ニューラルネットワークは、ユニバーサル関数近似定理に基づくユニバーサル関数近似とも呼ばれます。それはそれを述べています:

人工ニューラルネットワークの数学的理論では、普遍近似定理は、有限数のニューロンを含む単一の隠れ層を持つフィードフォワードネットワークが、活性化関数に関する穏やかな仮定の下で、Rnのコンパクトなサブセット上の連続関数を近似できることを示しています。

y=x2

ノートブックの例を使用して、ここで優れたレッスンを見つけることができます。

また、このような機能により、ANNは、たとえば画像とそのラベルの間の複雑な関係をマッピングすることができます。


2
本当にありがとうございました。これがまさに私が求めていたものです!
Boris Burkov

4
本当ですが、それを学ぶことは非常に悪い考えです。一般化の力がどこから発生するのか、私にはわかりません。NNは、一般化する何かがあるときに輝きます。パターンをキャプチャするビジョンのCNNや、トレンドをキャプチャできるRNNのように。
ジェフリーはモニカを

14

f(x)=x2Rn

RnRnxf(x)=x2Rf(x)=x2xR

sin(x)x=0x10000


3
ナイスキャッチ!「コンパクトセット」。
エスマイリアン

2
どうもありがとう!目を見張る!
Boris Burkov
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.