タグ付けされた質問 「generative-adversarial-networks」

9
人工知能はハッキングに対して脆弱ですか?
論文「敵対的設定におけるディープラーニングの制限」では、ニューラルネットワークがトレーニングするデータセットを操作できる攻撃者によって、ニューラルネットワークがどのように破損する可能性があるかを探っています。著者たちは、手書き数字を読み取ることを目的としたニューラルネットワークで実験を行い、ニューラルネットワークでトレーニングされた手書き数字のサンプルを歪めることにより、その読み取り能力を弱めました。 悪意のある攻撃者がAIをハッキングしようとするのではないかと心配しています。例えば 自動運転車をだまして、一時停止標識と速度制限を誤って解釈する。 ATMのような顔認識のバイパス。 スパムフィルターのバイパス。 映画レビュー、ホテルなどのだまされやすい感情分析 異常検出エンジンのバイパス。 音声コマンドの偽造。 機械学習ベースの医療予測の誤分類。 どのような敵対効果が世界を混乱させる可能性がありますか?どうすればそれを防ぐことができますか?

3
GAN損失関数を理解する
私は、Generative Adversarial Networksの理解(Daniel Seitaによるブログ投稿)で提供されているGAN損失関数の理解に苦労しています。 標準的なクロスエントロピー損失では、シグモイド関数を介して実行された出力と、結果のバイナリ分類があります。 シータ州 バツ1バツ1x_1 H((x1、y1)、D )= − y1ログD (x1)− (1 − y1)ログ(1 − D (x1))H((バツ1、y1)、D)=−y1ログ⁡D(バツ1)−(1−y1)ログ⁡(1−D(バツ1)) H((x_1, y_1), D) = -y_1 \log D(x_1) - (1 - y_1) \log (1 - D(x_1)) これは単なる期待のログであり、理にかなっていますが、GAN損失関数で、同じ反復で真の分布からのデータと生成モデルからのデータをどのように処理できますか?

2
生成的敵対ネットワークはどのように機能しますか?
私は生成的敵対的ネットワーク(GAN)について読んでいますが、それに関していくつかの疑問があります。これまでのところ、GANには2つの異なるタイプのニューラルネットワークがあることを理解しています。1つは生成的(GGG)で、もう1つは判別的(DDD)です。生成ニューラルネットワークは、判別ニューラルネットワークが正確性を判断するデータを生成します。GANは、損失関数を両方のネットワークに渡すことで学習します。 判別(DDD)ニューラルネットは、GGGによって生成されたデータが正しいかどうかを最初にどのように知るのですか?最初にDDDを訓練してからGANに追加する必要がありますかGGGますか? 90%の精度で写真を分類できる、訓練されたDDDネットを考えてみましょう。このDDDネットをGANに追加すると、10%の確率で画像が間違っていると分類されます。このDDDネットでGANをトレーニングすると、画像の分類で同じ10%エラーが発生しますか?はいの場合、GANが有望な結果を示すのはなぜですか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.