2024年のディープフェイク選挙に備えよ

2024年のディープフェイク選挙に備えよ

生成 AI で何が起きようとも、その破壊的な力はすでに、急速に近づいている米国大統領選挙に影響を与え始めている。

ジョー・バイデン大統領が、3本の米国旗の近くのステージ上のカーテンの後ろを歩いている。

写真:ドリュー・アンゲラー/ゲッティイメージズ

かつて人工知能は、一般の人々にとって抽象的なものでした。たとえデバイスで頻繁に利用されていたとしても、人工知能との具体的な関わりを意識することはありませんでした。しかし、ここ1年で状況は一変しました。OpenAIのDALL-EやChatGPTといったAIプログラムが人々に利用され始め、技術が急速に進歩しているからです。 

AIが民主化されるにつれ、民主主義そのものが新たな圧力にさらされています。AIは様々な形で活用される可能性が高くなりますが、同時に現実を歪める可能性もあり、AIが生成した候補者の音声、画像、動画が蔓延すれば、2024年の大統領選挙にとって大きな脅威となる可能性があります。偽情報が蔓延する現代において、真実と偽りの境界線は、これまで以上に曖昧になる可能性があります。 

「生成ツールに関しては、特に昨年、状況が劇的に変化しました」と、独立系AI専門家のヘンリー・アジダー氏は語る。「現在制作されているコンテンツの規模は、アクセシビリティの劇的な向上に直接関係していると思います。」

AI生成コンテンツが政治において役割を果たし始めるかどうかは問題ではありません。なぜなら、既にそれが起こっているからです。ジョー・バイデン大統領とドナルド・トランプ大統領をフィーチャーしたAI生成画像や動画がインターネット上で拡散し始めています。共和党は最近、AIを使ってバイデン大統領への攻撃広告を生成しました。問題は、誰もがノートパソコンを開き、最小限の労力で政治家の説得力のあるディープフェイクを素早く作成できるようになったらどうなるかということです。 

DALL-E、Midjourney、Stable Diffusionなど、テキストからAI画像を生成する方法は数多くあります。ElevenLabsが提供するようなAIプログラムを使えば、誰かの声のクローンを簡単に生成できます。説得力のあるディープフェイク動画の制作は依然として困難ですが、Ajder氏は1年ほどで状況は改善されるかもしれないと述べています。

「本当に高品質なディープフェイクを作るには、かなりの専門知識に加え、AIが生成した映像に修正を加えるポストプロダクションの専門知識も必要です」とアジダー氏は語る。「動画はまさに生成AIの新たなフロンティアと言えるでしょう。」

近年、政治家のディープフェイク動画がいくつか登場しています。例えば、昨年公開されたウクライナのウォロディミル・ゼレンスキー大統領が兵士たちに降伏を命じる動画などがその例です。他の生成AIの急速な進歩を考えると、技術がさらに進歩すれば(そう長くはかからないかもしれませんが)、より説得力があり、制作が容易になるため、このようなディープフェイク動画がさらに増える可能性があります。

「『ジョー・バイデンがXを言う動画を作ってください』と頼めるウェブサイトは今のところないと思います。今は存在しませんが、いずれはできるでしょう」と、カリフォルニア大学バークレー校情報学部のハニー・ファリド教授は語る。「時間の問題です。すでにテキストから動画を生成する取り組みは始まっています。」

Runway、Google、Metaといった企業もこれに含まれます。ある企業がテキスト動画生成AIツールの高品質版をリリースすると、ChatGPTのリリース後のように、他の多くの企業もすぐに独自のバージョンをリリースするようになるかもしれません。ファリド氏によると、誰も「取り残されたくない」ので、これらの企業はできる限り早く、持っているものをリリースする傾向があるとのことです。 

「物理的な世界では、製品をリリースする際に非常に厳格なガイドラインがあることに、いつも驚かされます」とファリドは言う。「製品をリリースして、それが顧客を殺さないことを願うことはできません。でもソフトウェアの場合は、『これは実際にはうまくいかないけど、何十億人もの人々にリリースしたらどうなるか見てみよう』という感じです。」

選挙期間中に大量のディープフェイクが拡散し始めたら、ドナルド・トランプ氏のような人物がソーシャルメディアでこの種のコンテンツをシェアし、それが本物だと主張することは容易に想像できます。バイデン大統領が失格を示唆するような発言をしたディープフェイクが選挙直前に流出し、それがAIによって生成されたものだと気づかない人も多いかもしれません。結局のところ、フェイクニュースは本物のニュースよりも広く拡散することが研究で繰り返し示されています。 

ディープフェイクが2024年の選挙までに蔓延しなくても(まだ18ヶ月先ですが)、この種のコンテンツが作成可能であるという事実自体が選挙に影響を与える可能性があります。偽の画像、音声、動画が比較的簡単に作成できることが分かれば、人々は目にする正当なコンテンツに不信感を抱くようになるかもしれません。

「ある意味、ディープフェイクや生成AIは選挙に関係していなくても混乱を引き起こす可能性があります。なぜなら、今や井戸は、何でもフェイクかもしれないという考えで汚染されているからです」とアジダー氏は言う。「もし自分に都合の悪いものが出てきたら、それは本当に便利な言い訳になります。フェイクだと片付けられるのですから。」

では、この問題には何ができるでしょうか?解決策の一つは、C2PAと呼ばれるものです。この技術は、携帯電話やビデオカメラなどのデバイスで作成されたあらゆるコンテンツに暗号署名を施し、誰が、どこで、いつ撮影したかを記録します。暗号署名は、中央集権化された不変の台帳に保管されます。これにより、合法的な動画を制作する人は、それが実際に合法であることを証明できるようになります。

その他の方法としては、画像や動画にフィンガープリンティングやウォーターマークと呼ばれる技術があります。フィンガープリンティングとは、コンテンツから「ハッシュ」と呼ばれる情報を取得することです。ハッシュとは、基本的にデータの文字列であり、後から正当性を検証するために使用されます。ウォーターマークとは、ご想像のとおり、画像や動画にデジタル透かしを挿入する技術です。

ディープフェイクを見抜くためのAIツールの開発がしばしば提案されているが、アジュダー氏はその解決策には賛同していない。同氏によると、この技術は信頼性が十分ではなく、開発が進む生成型AIツールの絶え間ない変化に追いつくことができないという。

この問題を解決する最後の可能性は、ソーシャルメディアユーザー向けのインスタントファクトチェッカーのようなものを開発することです。ハーバード大学バークマン・クライン・インターネット&社会センターの研究者であるアヴィヴ・オヴァディア氏は、アプリでコンテンツの一部をハイライト表示し、文脈化エンジンに送信することで、その真偽を判断できると述べています。

「テクノロジーの進歩と同じ速さで進化するメディアリテラシーは容易ではありません。オンラインで目にした情報を見て、その文脈をほぼ瞬時に理解できる必要があります」とオバディア氏は言います。「何を見ているのか?信頼できる情報源と相互参照できるはずです。」

フェイクニュースの可能性があるものを見つけた場合、このツールはその真偽をすぐに知らせてくれます。また、フェイクニュースの可能性がある画像や動画を見つけた場合、情報源をチェックして検証済みかどうかを確認することも可能です。オバディア氏によると、このツールはWhatsAppやTwitterなどのアプリ内で利用できるほか、専用のアプリとして提供することも可能です。問題は、彼が話を聞いた多くの創業者が、このようなツールの開発にそれほど多くの資金を投じるつもりがないことだと彼は言います。 

これらの解決策のいずれかが2024年の選挙前に採用されるかどうかはまだ分からないが、脅威は増大しており、生成AIの開発には多額の資金が投入されている一方で、この種の偽情報の拡散を防ぐ方法を見つけることにはほとんど資金が投入されていない。

「既に目にしているように、今後もツールの洪水が押し寄せるでしょう。しかし、AIが生成する政治コンテンツは今後も増え続けるでしょう」とアジダー氏は言う。「根本的に、私たちはこれらの驚くほど急速に進化する強力なテクノロジーに対処できる立場にありません。」

続きを読む