DeepMindのDQN Atariゲームは同時に学習しましたか?


9

DeepMindは、彼らのディープQネットワーク(DQN)が49のAtariゲームをプレイすることを学びながら、その動作を継続的に適応させることができたと述べています。

同じニューラルネットですべてのゲームを学習した後、エージェントはそれらをすべて「超人的」レベルで同時にプレイできましたか(ゲームの1つがランダムに提示された場合はいつでも)、切り替えたため、一度に1つのゲームだけが得意でした再学習が必要ですか?


「同じニューラルネットですべてのゲームを学習した後」。これは、同じNNアーキテクチャ、または同じアーキテクチャと単一の重みのセットを意味しますか?
Ankur 2016年

@Ankurは実際にはわかりません。同じアーキテクチャを使用していて、ゲーム間の重みをリセットしなかったのは私の(限られた)理解です。
Dion

回答:


2

切り替えには再学習が必要でした。

また、次の点にも注意してください

7つのゲームすべてで同じネットワークアーキテクチャ、学習アルゴリズム、およびハイパーパラメーター設定を使用しており、ゲーム固有の情報を組み込むことなくさまざまなゲームで作業できるほど堅牢であることを示しています。実際のゲームと変更されていないゲームでエージェントを評価しましたが、トレーニング中にのみゲームの報酬構造に1つの変更を加えました。

そして

ネットワークは、私たちが試みた7つのゲームのうち6つで以前のすべてのRLアルゴリズムよりも優れており、そのうちの3つで人間のエキスパートを上回っています。


1

切り替えには再学習が必要です。ネットワークには、すべてのゲームをうまくプレイできる単一の重みセットがありませんでした。これは壊滅的な忘却の問題によるものです。

ただし、この問題を克服するために最近の作業が行われています。

「ニューラルネットワークでの壊滅的な忘却の克服」、2016年

論文:https : //arxiv.org/pdf/1612.00796v1.pdf

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.