人工的に作られたメディアを認識するためのいくつかの戦術は何ですか?


12

偽の写真、偽のサウンドバイト、偽のビデオを安価に作成する能力が高まるにつれて、何が現実で何がそうでないかを認識することで問題が大きくなります。今でも、低コストで偽のメディアを作成するアプリケーションの例が多数あります(DeepfakeFaceAppなどを参照)。

明らかに、これらのアプリケーションが間違った方法で使用されると、他の人のイメージを傷つけるために使用される可能性があります。Deepfakeを使用すると、相手を不誠実に見せることができます。別のアプリケーションを使用して、政治家が物議をかもす何かを言ったように見せることができます。

人工的に作成されたメディアを認識して保護するために使用できるテクニックにはどのようなものがありますか?

回答:


2

デジタルメディアフォレンジック(DMF)フィールドは、画像またはビデオの完全性の自動評価のための技術の開発を目的としているため、DMFはあなたが探しているフィールドです。DMFにはいくつかのアプローチがあります。たとえば、機械学習(ML)技術、特に畳み込みニューラルネットワーク(CNN)に基づくアプローチです。

たとえば、論文では、表示と照明の条件が異なる画像を使用しているため、リカレントニューラルネットワークを使用したディープフェイクビデオ検出(2018)」では、DavidGüeraとEdward J.ディープフェイクツールによって導入されたフレーム間の一時的な矛盾。より具体的には、エンドツーエンドでトレーニングされるたたみ込みLSTMアーキテクチャ(CNNとLSTMの組み合わせ)を使用するため、CNNはビデオの機能を学習し、RNNに渡されて、尤度を予測しようとします偽の動画に属しているかどうかの特徴。セクション3では、ビデオフレーム間の不整合につながるディープフェイクビデオの作成について説明します(提案手法で活用されています)を使用しています。

他の同様の作品が提案されています。関連する論文については、このキュレーションリストhttps://github.com/aerophile/awesome-deepfakesご覧ください


1

ここではコンテキストが重要だと思います。1世紀以上にわたってスコットランドヤードで使用されているような戦術を使用することが、おそらく最良の方法です。アリバイ、現実的なタイムライン、動機の確立。法的設定では、このような方法を使用してこれらの画像が偽物であることを証明することが可能です。ITの観点からは、これらの画像の出所を特定できる場合があります。数千の重複した画像が単一の起源から来た場合、この起源からの画像は疑わしいです。

一般的に、私たちは見ているすべてを信じないように自分自身を再訓練するべきだと思います。画像を偽造する方法は非常に多くあるため、写真はイベント発生の最良の証拠とは見なされなくなりました。すべての画像を無視するのではなく、結論にジャンプする前に、事実の外側の一致を求めてください。すべての事実がイベントの発生を指し示している場合、その写真は本物である可能性があります。


0

問題のメディアにアーティファクトや不自然な要素が存在せず、メディアが人間の目と見分けがつかないと仮定すると、これを行う唯一の方法は、画像のソースにまでさかのぼることです。

DoS(Denial of Service)攻撃の例えは、単一のIPから単一のサーバーに無数のリクエストが送信されてクラッシュすることです。一般的なソリューションは、1つからのリクエストが多数あるハニーポットです。 IPはおとりサーバーにリダイレクトされ、そこでクラッシュしても、稼働時間は損なわれません。いくつかの研究は、これらのライン上で行われたこの論文は、画像のデジタル署名または検証についてスポークこれそれらが改竄画像検出とソースカメラ識別を提案しました。

あるソースにさかのぼると、偽の潜在的な偽の画像の数が単一のソースから来ている場合、それは疑問視されます。

アナロジーに基づいて、各偽のリクエストが分散ソースから発信されるDDoS(Distributed Denial of Service)攻撃のような何かを扱っているときに共通の恐怖が生じます-ネットワークセキュリティはこれに対処する方法を見つけましたが、セキュリティAIの観点からの不正検出は、確立されたものではありません。

本質的に特定の悪意のある目的のためのよく考えられた人工メディアのために、今日、捕まるのは非常に難しいです-しかし、作業は現在AIのセキュリティで行われています。悪意のある目的で人工メディアを使用することを計画している場合、おそらく今が最適な時期だと思います。

このセキュリティは、少し前から懸念されていました。記事データサイエンティスト相場によって書かれました

ディープフェイクは、偽のポルノビデオを通じて女性に嫌がらせや屈辱を与えるためにすでに使用されています。この用語は、実際には、TensorFlowを使用して生成的敵対ネットワーク(GAN)を構築してこれらのビデオを作成していたRedditユーザーのユーザー名に由来しています。今、情報当局は、ウラジミール・プーチンが2020年の大統領選挙に影響を与えるために偽のビデオを使用する可能性について話している。民主主義と国家安全保障に対する脅威として、またそれらを検出する方法として、ディープフェイクに関するさらなる研究が行われています。

注- 私はネットワークセキュリティについてまったく無知です。私の知識はすべて友人との1回の会話から得られるものであり、ここで使用するのに良い例えだと思いました。類推の誤りを許し、可能であれば修正してください!


何らかの研究を行い、それらの線に沿った何かに基づいた少なくとも1つの研究成果/論文へのリンクを提供できればいいと思います(つまり、潜在的に偽のビデオのソースを利用します)。
nbro

潜在的な害について話している論文や、一般的にアーティファクトを検出しようとしている論文とは別に、このような回答や、このいずれかを -としては、広範な研究がこれらのラインに行われていない、と述べたが、それはあります探検中。これらのリンクがお役に立てば幸いです!
アシェノイ

-1

あなたが言及する技術はGANを使用します。GANの重要な考え方は、ジェネレーターとディスクリミネーターがあることです。ジェネレーターは新しいコンテンツを生成し、弁別器はコンテンツが実際のデータからのものか生成されたものかを判断する必要があります。

識別器ははるかに強力です。偽物を検出するために弁別器を訓練するのはそれほど難しくないはずです。操作を正確に特定できるモデルをトレーニングし、これを理解することは、操作の証明がより困難です。何かが操作されていないことを証明することは不可能です。

フォトショップの画像をどのように扱うかという質問について:画像の圧縮レベルの違いを調べます。検索するキーワードは画像フォレンジックです:http : //fotoforensics.com/tutorial-estq.php

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.