有名なTensorflow Fizz BuzzジョークとXOr問題の精神に基づいて、関数を実装するニューラルネットワークを設計することが可能であれば、私は考え始めましたか?
数値の表現(たとえば、バイナリ形式のベクトルとして、その数5
はとして表される[1,0,1,0,0,0,0,...]
)が与えられると、ニューラルネットワークはその二乗(この場合は25)を返すことを学習する必要があります。
実装できれば、おそらくと一般的にxの任意の多項式を実装できます。次に、テイラー級数を使用して、近似できます。これにより、フィズバズ問題-ニューラルネットワークが解決されます分割の残りを見つけることができます。
明らかに、NNの線形部分だけではこのタスクを実行できないため、乗算を実行できれば、アクティベーション関数のおかげでそれが発生します。
テーマについてアイデアや読書を提案できますか?