この戦争は歴史上初めて、機械で作られた偽画像で溢れかえる戦争になるのではないかと懸念する声もあったが、実際にはそうはならなかった。この技術が紛争に与える影響は、はるかに微妙なものに過ぎない。

写真イラスト:ジャッキー・ヴァンリュー、ゲッティイメージズ
ハマスが10月7日にイスラエルへの奇襲攻撃を開始して以来数週間、その後の紛争は前例のない偽情報の波を生み出し、「アルゴリズムで駆動される戦争の霧」となり、主要な新興組織を混乱に陥れ、ソーシャルメディア企業を苦境に陥れた。
しかし、ソーシャルメディア上で拡散する欺瞞的な画像や動画の中で、人工知能(AI)ツールによって生成されるコンテンツは比較的周縁的な存在にとどまっている。イスラエルとハマスの戦争が、AIによって生成された偽画像が支配的な紛争の最初の例になるのではないかと懸念する声もあるが、AI技術はより複雑で微妙な影響を及ぼしている。
「AI画像が出回っているのは確かだが、それが情報拡散の中心的な役割を果たしていると思うほどではない」と、オンライン上の偽情報を研究するアトランティック・カウンシルのデジタルフォレンジック研究所の副編集者、レイラ・マシュクール氏は言う。
マシュクール氏によると、AIが生成した偽情報は主に、活動家によって特定の陣営への支持を募ったり、より広範な支持を表明したりするために利用されているという。例としては、テルアビブでイスラエル国防軍を擁護するAI生成の看板、イスラエル国防軍を応援する人々の偽画像をシェアするイスラエルのアカウント、AIを使ってハマスを非難する投稿を生成したイスラエルのインフルエンサー、イスラエルによるガザ爆撃の犠牲者を描いたAI画像などが挙げられます。
「私がオンラインで目にしてきた一般的な使用法は、大部分が支持を集めるためのもので、現時点でAIを利用する方法の中で最も悪質なものとは言えません」と彼女は言う。
ここで重要な要素となるのは、流通している膨大な量の誤情報であり、AI画像が会話を形成することを困難にしている。「情報空間はすでに本物の画像や映像で溢れています」とマシュコール氏は言う。「それ自体がソーシャルメディアプラットフォームを溢れさせているのです。」
この点は、ハーバード・ケネディスクールのミスインフォメーション・レビュー誌に掲載された、生成AIが世界中で偽情報の拡散に及ぼす可能性のある役割に関する最近の論文にも反映されています。著者らは、この技術の影響に関する懸念は「誇張されている」と記しています。確かに、生成AIは理論上、人々が驚異的な速度で偽情報を拡散することを可能にしますが、こうした偽情報を求める人々(多くの場合、「組織への信頼度が低い…(あるいは)強い党派性を持つ」人々)は、陰謀論ウェブサイトから4chanフォーラムまで、既にお馴染みのナンセンスを山ほど利用しています。これ以上の需要はありません。
「人類が歴史を通じて(虚偽の)物語を作り上げるために発揮してきた創造性と、既に世界中に誤情報を作り出し拡散する自由を人間が持っていることを考えると、人口の大部分がオンラインでもオフラインでも見つけられない誤情報を探しているとは考えにくい」と論文は結論づけている。さらに、誤情報は人々が目にすることで初めて力を持つものであり、人々がバイラルコンテンツに費やす時間は限られていることを考えると、その影響はごくわずかである。
主流のフィードに流れ込む可能性のある画像について、著者らは、生成AIは理論上は高度にパーソナライズされ、非常にリアルなコンテンツを生成できるが、Photoshopや動画編集ソフトも同様に可能だと指摘している。粗い携帯電話の動画の日付を変更するだけでも、同様の効果が得られる可能性がある。ジャーナリストやファクトチェッカーは、ディープフェイクよりも、文脈から外れた画像や、例えばハマスの攻撃として提示されたビデオゲームの映像のように、粗雑に加工された画像に苦労する。
そういう意味では、派手な新技術への過度な注目は、往々にして誤解を招きます。「現実的であることは、必ずしも人々が求めていることではなく、インターネットで話題になるために必要なことでもないのです」と、論文の共著者であり、チューリッヒ大学デジタルデモクラシー研究所で誤情報、信頼、ソーシャルメディアを専門とするポスドク研究員のサーシャ・アルタイ氏は付け加えます。
マシュクール氏は、供給側でも同じことが言えると説明する。発明は実装ではないのだ。「会話を操作したり、オンラインの情報空間を操作する方法はたくさんあります」と彼女は言う。「AI生成ソフトウェアは現時点では簡単に入手できるものの、特定の技術にアクセスしなくても、より低負荷で簡単に実行できるものもあります。探せば、もっと簡単な方法で何かを操作することができるはずです。」
ケネディスクールの論文のもう一人の著者であり、オックスフォード・インターネット研究所の博士課程学生でもあるフェリックス・サイモン氏は、チームのコメントは潜在的な危害に関する議論に終止符を打つことではなく、むしろAIが「真実のハルマゲドン」を引き起こすという主張に反論しようとする試みだと警告する。こうしたパニックは、新しいテクノロジーにしばしば伴う。
終末論的な見方はさておき、生成型AIが既存の偽情報エコシステムに実際にどのように組み込まれているかを研究する方が簡単です。例えば、カリフォルニア大学バークレー校情報学部のハニー・ファリド教授は、生成型AIはロシアのウクライナ侵攻当初よりもはるかに蔓延していると主張しています。
ファリド氏は、このテクノロジーを紛争から発信されたとされる音声や映像にまとわりつく「亡霊」と形容し、毎日6~10件の記者から真実性を問う電話を受けていると語る。「多くの人にとって、不都合な事実を否定する能力は、この紛争において間違いなく影響を与えています」と彼は言う。
ファリド氏は、こうした否定を即座に引き起こした複数の例を挙げている。その中には、ガザ地区のアル・アハリ・アラブ病院へのミサイル攻撃の背後に誰がいたかを示すさまざまなデジタル証拠や、本物と偽物の瓦礫の下に埋もれた子供たちの画像などを指摘する人々も含まれている。
その最も顕著な例の一つが、イスラエルのベンヤミン・ネタニヤフ首相が自身のXアカウントに投稿した、火傷を負った子供たちの写真です。公開後、誰かがその写真をAI or Not検出ツールに入力したところ、ユーザーによるとAIによるものだと判定されました。ファリド氏によると、彼のチームは写真を分析した結果、AIは使用されていないと結論付けましたが、疑惑の種はすでに撒かれていたとのことです。さらに混乱を招いたのは、AIを使って写真の1枚に写っている子供を子犬にすり替えた人物の存在でした。
「そしてそれがネットに流れて、人々は『ちょっと待て、彼があれを作ったのなら、あれは偽物かもしれない』と言うようになり、今ではこの2つのバージョンが出回っていて、みんなが『ああ、子犬はオリジナルで、こっちが偽物だ』と言い始めて、事態は混乱するだけだ」とファリドは言う。
言い換えれば、この分布は歴史的なパターンを辿っていると言えるでしょう。つまり、誤情報がソーシャルメディアで共有され、アルゴリズムと人間によって増幅されるのです。「より広い視点で、急速に変化し、大きな影響力を持つ世界について推論する私たちの能力を考えると、この対立は過去に見てきたものよりも深刻だと思います」とファリドは言います。「そして、ジェネレーションAIもその一因ではありますが、ジェネレーションAIだけの問題ではありません。それはあまりにも単純化しすぎです。」
あなたの受信箱に:毎日あなたのために厳選された最大のニュース

ウィル・ベディングフィールドはビデオゲームとインターネット文化を専門としています。リーズ大学とキングス・カレッジ・ロンドンで学び、ロンドンを拠点に活動しています。…続きを読む