ガンズの論文は、弁別が電車に以下の勾配を使用しています言います:
値は、サンプリングされたデータサンプルを生成するために発電機に通し、次いで弁別器は、生成されたデータサンプルを使用してbackpropogatedされます。ジェネレータがデータを生成すると、それは弁別子のトレーニングでそれ以上の役割を果たしません。言い換えると、ジェネレータは、データサンプルを生成し、サンプルのみを処理することで、メトリックから完全に削除できます。
ただし、ジェネレーターのトレーニング方法については少し混乱しています。次のグラデーションを使用します。
この場合、弁別子はメトリックの一部です。前のように取り除くことはできません。通常の判別モデルにおける最小二乗や対数尤度のようなものは、適切に形成された見事な定義を持っているため、簡単に区別できます。ただし、メトリックが別のニューラルネットワークに依存している場合に、逆伝播する方法について少し混乱しています。本質的に、ジェネレータの出力を弁別器の入力に接続し、全体を弁別器部分の重みが一定である1つの巨大ネットワークのように扱いますか?
D_loss
さらに詳しく説明してもらえますG_loss
か?どのスペースで最大化しますか?IIUC、D_real
そしてD_fake
それぞれがバッチなので、バッチ全体を最大化していますか?