問題のメディアにアーティファクトや不自然な要素が存在せず、メディアが人間の目と見分けがつかないと仮定すると、これを行う唯一の方法は、画像のソースにまでさかのぼることです。
DoS(Denial of Service)攻撃の例えは、単一のIPから単一のサーバーに無数のリクエストが送信されてクラッシュすることです。一般的なソリューションは、1つからのリクエストが多数あるハニーポットです。 IPはおとりサーバーにリダイレクトされ、そこでクラッシュしても、稼働時間は損なわれません。いくつかの研究は、これらのライン上で行われたこの論文は、画像のデジタル署名または検証についてスポークこれそれらが改竄画像検出とソースカメラ識別を提案しました。
あるソースにさかのぼると、偽の潜在的な偽の画像の数が単一のソースから来ている場合、それは疑問視されます。
アナロジーに基づいて、各偽のリクエストが分散ソースから発信されるDDoS(Distributed Denial of Service)攻撃のような何かを扱っているときに共通の恐怖が生じます-ネットワークセキュリティはこれに対処する方法を見つけましたが、セキュリティAIの観点からの不正検出は、確立されたものではありません。
本質的に特定の悪意のある目的のためのよく考えられた人工メディアのために、今日、捕まるのは非常に難しいです-しかし、作業は現在AIのセキュリティで行われています。悪意のある目的で人工メディアを使用することを計画している場合、おそらく今が最適な時期だと思います。
このセキュリティは、少し前から懸念されていました。記事データサイエンティスト相場によって書かれました
ディープフェイクは、偽のポルノビデオを通じて女性に嫌がらせや屈辱を与えるためにすでに使用されています。この用語は、実際には、TensorFlowを使用して生成的敵対ネットワーク(GAN)を構築してこれらのビデオを作成していたRedditユーザーのユーザー名に由来しています。今、情報当局は、ウラジミール・プーチンが2020年の大統領選挙に影響を与えるために偽のビデオを使用する可能性について話している。民主主義と国家安全保障に対する脅威として、またそれらを検出する方法として、ディープフェイクに関するさらなる研究が行われています。
注- 私はネットワークセキュリティについてまったく無知です。私の知識はすべて友人との1回の会話から得られるものであり、ここで使用するのに良い例えだと思いました。類推の誤りを許し、可能であれば修正してください!