タグ付けされた質問 「incremental-learning」

4
ニューラルネットワークは壊滅的な忘却の傾向がありますか?
ニューラルネットワークにライオンの写真を100回表示し、「危険」とラベル付けすると、ライオンは危険であることがわかります。 ライオンの危険な可能性が50%になるように、以前に何百万ものライオンの画像を表示し、「危険」および「危険ではない」というラベルを付けたと想像してください。 しかし、最後の100回は、ニューラルネットワークを、ライオンを「危険」と見なす非常に前向きな状態に押しやったため、最後の100万のレッスンは無視されました。 したがって、ニューラルネットワークには、最近の証拠に基づいてあまりにも迅速に考えを変えることができるという欠陥があるようです。特にその前の証拠が中央にあった場合。 どれだけの証拠を見たかを追跡するニューラルネットワークモデルはありますか?(または、これはによって学習率の減少をさせると同等になり試行回数のですか?)1/T1/T1/TTTT

2
ニューラルネットワークを段階的にトレーニングすることは可能ですか?
出力クラスが最初から(すべて)定義されていないニューラルネットワークをトレーニングしたいと思います。着信データに基づいて、より多くのクラスが後で導入されます。つまり、新しいクラスを導入するたびに、NNを再トレーニングする必要があります。 NNを段階的に、つまり以前のトレーニングフェーズで以前に取得した情報を忘れずにトレーニングするにはどうすればよいですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.