ディープフェイクと戦う上で最大の希望は、Facebook、Twitter、そしてGoogleかもしれない。彼らは巨大なネットワーク上でディープフェイクを検知し、阻止する力を持っている。

謝リーヤオ/WIRED
嘘がこれほどまでに美しく見えることはかつてないほど、文字通りに見られるようになった。ますます高度化する技術によって、本物らしく偽られた動画や音声、いわゆる「ディープフェイク」が生み出され、世界中で懸念が高まっている。しかし、ディープフェイクが開発される一方で、技術者たちは虚偽と闘い続けている。
「情報分野の質を低下させ、民主主義に不可欠な議論の質を低下させようとする動きが世界的に広がることが懸念される」と、選挙の公正性に関する大西洋横断委員会の委員であるアイリーン・ドナホー氏は2018年12月にCNBCに語った。彼女は、ディープフェイクは次世代の偽情報になりかねないと述べた。
カリフォルニア州の議員らは、2020年の選挙を前にディープフェイクのリスクを非常に懸念しており、2019年10月に選挙の60日以内に「実質的に欺瞞的な音声または映像メディア」の配信を禁止する法律を可決した。
しかし、ディープフェイクによる政治介入はまだ起きていません。ディープフェイクの大部分は、動画に登場している人物の同意なしにポルノで作成されています。だからといって、ディープフェイクが他の用途に利用される可能性がないわけではありません。偽造された犯罪証拠、詐欺、恐喝なども含まれます。「ディープフェイク!」という叫び声が、実際の映像を偽物として誤って排除するために利用される可能性も同様に懸念されます。
カリフォルニア州の「ディープフェイク対策法案」には複数の欠陥があるが、その一つが重要な疑問を提起する。音声や動画が操作されたことを証明する責任は誰にあるのか?
世界中の研究者たちは、AIにAIで対抗することで、まさにそれを実現するツールの開発に取り組んでいます。ディープフェイクの真髄は、人間の観客を騙すほどの説得力を持つことです。ディープフェイク作成技術がますます高性能化し、悪意のある人物が容易にアクセスできるようになるにつれ、ディープフェイク検出モードと分析のための同等に強力な技術の開発が、真実をめぐる重要な戦場となるでしょう。
「巧妙に作られた音声や映像のディープフェイクは、人間でさえ見抜くのが難しい」とラガヴァン・トゥライラトナム氏は語る。トゥライラトナム氏は、ジョー・ローガンの声を偽造するツールを開発し、音声ディープフェイクの性能を実証したスタートアップ企業Dessaの共同創業者兼機械学習部門責任者だ。同社は現在、音声ディープフェイクを検出するAIの開発に取り組んでいる。
「従来のソフトウェアベースのアプローチでは、ディープフェイクを見抜くためのルールを記述するのは非常に困難です。さらに、ディープフェイク技術は常に変化しており、従来のソフトウェアは毎回手作業で書き換えなければなりません」とトゥライラトナム氏は説明する。「一方、AIは十分なデータがあれば、自らディープフェイクを検知する方法を学習できます。さらに、人間の目には検知が難しい新しいディープフェイク技術が登場したとしても、AIはそれに適応することができます。」
アルバニー大学のシウェイ・リュ氏も、少なくとも現時点ではディープラーニングが鍵を握っていると考えている。「データ駆動型のディープラーニング手法は、今のところ最も効果的な手法のようです。トレーニングデータから分類ルールを学習するため、柔軟性が高く、動画圧縮、ソーシャルメディアロンダリング、偽造者が用いるその他の対策など、動画が拡散される複雑な状況にも適応できます。」
しかし、機械学習モデルの学習には大量のデータが必要です。学習データの不足は、効果的なディープフェイク検出システムの構築を目指す研究者にとって大きな障害となっています。ディープフェイク対策を目的とするアムステルダム拠点のスタートアップ企業Deeptraceの最近の報告書によると、オンラインで14,678本のディープフェイク動画が確認されており、その圧倒的多数がポルノでした。増加率(2018年12月の前回の監査以降、確認された動画の数はほぼ倍増していますが、この増加の一部がDeeptraceの検出能力の向上によるものかどうかは不明です)は憂慮すべきものですが、絶対値で見ると、AIアルゴリズムの学習にはまだ比較的少ない数です。
これは偽造者側の構造的な優位性です。善意の人間は訓練のために膨大な数のディープフェイク動画を必要とする一方、偽造者は目的を達成するために、適切な場所に適切なタイミングで1本の動画を配置するだけで済むかもしれません。
ディープフェイクの数は比較的少ないものの、その脅威は深刻に受け止められています。トレーニングデータ不足の問題に対処するため、Facebook、Google、Amazon Web Services、Microsoftは最近、ディープフェイク検出チャレンジを発表しました。来月開始予定のこのチャレンジでは、世界中の研究者がモデルのトレーニングデータとして使用できるよう、有料俳優を使ったディープフェイクの特別データセットが公開されます。効果的なディープフェイク検出システムの開発は明らかに公共の利益ですが、カリフォルニア州のディープフェイク対策法案のような法律の施行の最前線に立つ可能性が高いため、実用的な検出メカニズムを見つけようとする強いインセンティブを持つ巨大テック企業にとって、これは完全に利他的な行為とは言えません。
続きを読む:ディープフェイクはすでに民主主義を破壊している。女性に聞いてみればわかる
Lyu氏と同僚のYuezun Li氏は、データ使用量の少ない代替検出手法を提案しました。現在のディープフェイクアルゴリズムは限られた解像度の画像しか生成できず、元の動画と一致するようにさらに歪ませる必要があるため、顔の歪みを測定することでディープフェイク動画を判別することが可能です。このモデルの学習に必要なデータは、他の多くのディープラーニング手法よりもはるかに少なくて済みます。もちろん、弱点は、偽造者が顔の歪みを軽減する方法を見つける可能性があり、そうなると検出ツールが振り出しに戻ってしまうことです。
ディープフェイクの他の特徴についても同様です。例えば、リュ氏と彼のチームは、ディープフェイク動画に映る人物がほとんど瞬きをしないことを観察し、これに基づいてディープフェイクを検出するモデルを構築しました。しかし、研究論文の中で彼らは、「高度な偽造者は、後処理とより高度なモデル、そしてより多くのトレーニングデータを用いて、リアルな瞬き効果を作り出すことができる」と指摘し、偽造者がそのプロセスを理解してしまうと、この手法は効果的ではなくなる可能性が高いと述べています。
「偽造品の製造と検出の間の競争は、継続的な猫とネズミのゲームであり、双方が相手から学び、改善していく」とリュウ氏は言う。
オーストラリアのディーキン大学のThanh Thi Nguyen氏と彼のチームは最近、AI検出のための様々なディープラーニングモデルを比較しました。彼はディープラーニングが現時点で最も有望な手法であることに同意していますが、他にも検討する価値のある選択肢があると述べています。
「ディープラーニングを用いないもう一つの方法は、光応答非均一性解析を用いて、本物とディープフェイクを見分けることです。PRNUとは、デジタルカメラの光感度センサーの工場出荷時の欠陥に起因するノイズパターンです」とグエン氏は言います。「PRNUはデジタルカメラごとに異なり、デジタル画像の指紋とみなされることがよくあります。この解析は画像フォレンジックで広く利用されています。なぜなら、入れ替えられた顔は、動画フレームの顔領域における局所的なPRNUパターンを変化させると考えられるからです。」
「あらゆる種類のディープフェイクに対して優れた性能を発揮する単一のモデルは存在しません」とグエン氏は説明する。「これは特にディープフェイク検出において当てはまります。既存のディープフェイク検出手法のほとんどは、ディープフェイク作成手法の弱点を見つけることに基づいているからです。しかし、研究者たちは依然として、ほとんどの種類のディープフェイクに対して効果的に機能するディープフェイク検出モデルを見つけるという目標に向けて取り組む必要があります。」
しかし、ディープフェイク検出のための技術的手法の開発は、問題解決の第一歩に過ぎません。どんな解決策も、その効果は実装によってのみ決まります。これは、カリフォルニア州のディープフェイク対策法案で未解決のまま残された重要な疑問に戻ります。ディープフェイクの識別は実際に誰が責任を負うのでしょうか?そして、どのように大規模に行うことができるのでしょうか?
「ディープフェイクに関する意識を高めることは、その悪意ある利用の可能性に対抗する最良の方法の一つです。例えば、最近発生した音声ディープフェイク詐欺事件を考えてみてください。電話の向こう側にいる幹部は、上司と話していると思っていたため、ハイパーリアリスティックな合成音声の存在を全く認識していなかったでしょう」とトゥライラトナム氏は述べ、英国のエネルギー会社から22万ユーロ(18万9000ポンド)を盗むためにCEOの音声のディープフェイクが使用された最近の事件に言及しました。「しかし、もし彼が認識していたらどうだったでしょうか? 特に何かがおかしいと感じた時、自分の耳や目で聞いた情報を信じるべきか疑うことができるようになることが、人々がこれらのテクノロジーに簡単に騙されないようにするための第一歩です。」
個々のユーザーの認識は重要だが、問題の規模を考えると、最終的にはテクノロジー企業が真実と偽りを区別する責任を負わなければならない可能性が高い。
「ディープフェイクの生成と検出に使われる技術は、今後ますます進化していくでしょう。技術同士が互いを補完し合う、いたちごっこのような状況になるでしょう。だからこそ、ディープフェイクのリスクを軽減するための他の戦略を整備することが重要です。これは技術に頼るのではなく、政府や様々な政策団体の参加にかかってくるでしょう」とトゥライラトナム氏は語る。
テクノロジープラットフォーム、特にFacebook、Twitter、YouTubeといったソーシャルメディア大手にディープフェイク検出システムを統合することが、ディープフェイクコンテンツの蔓延を阻止する唯一の現実的な方法となるかもしれません。これにはメリットとデメリットの両方があります。一方で、これらのプラットフォームの規模とリーチは、比類のないレベルのグローバルな可視性とデータ分析を可能にします。ディープフェイク検出チャレンジにおけるテクノロジー大手の協力は、ディープフェイクとの戦いにおける更なる共同行動の基盤となる可能性があります。
一つの選択肢として、現在のテロ対策のための世界インターネットフォーラム(GIFCT)に似たシステムが考えられます。GIFCTは、テクノロジー企業が問題のあるコンテンツのハッシュを共有できるデータベースを管理しています。例えば、Facebookが自社のプラットフォーム上でテロリストの動画を発見した場合、そのコンテンツのハッシュをデータベースに共有することで、YouTubeやTwitterが同じ動画が自社のサービスにもアップロードされていないかどうかを調査できるようになります。
しかし、巨大テック企業のグローバルな規模は、同時に課題ももたらします。文化的な誤解、風刺や保護された政治的発言の認識、法管轄権の複雑さ、各国法の不整合など、これらはすべてGIFCTに影響を与えてきた問題であり、ディープフェイク管理のためのあらゆる協調的な取り組みにも影響を及ぼす可能性があります。
ディープフェイク検出の技術は複雑だが、セックスや嘘、ビデオテープの泥沼の中で何が「本物」なのかを取り締まる政治に比べれば、簡単な部分かもしれない。
Digital Societyは、テクノロジーが社会をどう変えていくかを探るデジタルマガジンです。Vontobelとの出版提携により制作されていますが、すべてのコンテンツは編集上独立しています。テクノロジーが社会の未来をどのように形作っていくかについてのストーリーをもっと知りたい方は、Vontobel Impactをご覧ください。
この記事はWIRED UKで最初に公開されました。
エリーゼ・トーマスはフリーランスライターであり、Foreign Policy、ABS、Guardian、Wired UKなどに寄稿しています。また、オーストラリア戦略政策研究所の国際サイバー政策センターの非常勤研究員も務めています。…続きを読む