新たな調査によると、ディープフェイク動画の数が急増しており、世界最大の検索エンジンが、同意のないフェイク動画を専門とする数十のサイトにクリックを誘導しているという。

イラスト: ジェームズ・マーシャル、ゲッティイメージズ
WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。
GoogleとMicrosoftの検索エンジンは、ディープフェイクポルノ動画に問題を抱えています。ディープフェイクが5年前に登場して以来、この技術は女性への虐待や嫌がらせに常に利用されてきました。機械学習を用いて、本人の許可なく人物の顔をポルノ画像に加工するのです。現在、AI技術の進歩とディープフェイクエコシステムの拡大に後押しされ、同意のないディープフェイクポルノ動画の数は飛躍的に増加しています。
独立系研究者がWIREDに提供した、合意のないディープフェイクポルノ動画に関する新たな分析は、これらの動画がいかに蔓延しているかを示している。オンラインでの標的を避けるため匿名を条件に取材した研究者によると、過去7年間で、ディープフェイクポルノ動画の掲載のみ、または一部をディープフェイクポルノ動画のホスティングを目的として設立された上位35のウェブサイトには、少なくとも24万4625本の動画がアップロードされているという。
今年最初の9か月間で、11万3000本の動画がウェブサイトにアップロードされました。これは、2022年全体でアップロードされた7万3000本と比べて54%の増加です。分析では、今年末までに2023年に制作される動画の数が、他のすべての年の合計数を上回ると予測されています。
これらの驚くべき数字は、合意のないディープフェイクがいかに甚大な問題となっているかを示すほんの一例に過ぎません。問題の全体像ははるかに大きく、他の種類の加工画像も含みます。近年、主に女性を標的とし、人々の同意や承諾なしに作成されるディープフェイクの悪用という産業が台頭しています。静止画で動作する顔交換アプリや、数回クリックするだけで写真に写っている人物の服を「脱がせる」アプリも非常に目立っています。これらのアプリによって作成された画像はおそらく何百万枚にも上るでしょう。
「これはごく普通の人々、ごく普通の高校生、ごく普通の大人を標的にしており、もはや日常茶飯事になっています」と、ペンシルベニア大学でデジタル権利とサイバー性暴力の研究を行っているソフィー・マドックス氏は言う。「こうしたテクノロジーへのアクセスを困難にすることができれば、状況は大きく変わるでしょう。性犯罪を誘発するきっかけが2秒もかからないようにすべきです。」
新たな調査では、ディープフェイクポルノ動画を専門に配信したり、他のアダルトコンテンツと一緒に掲載したりしている35のウェブサイトに焦点を当てています(ソーシャルメディアに投稿された動画、非公開で共有された動画、加工された写真は含まれていません)。WIREDは、これらのウェブサイトの認知度をさらに高めないよう、名前や直接リンクを記載していません。研究者はこれらのウェブサイトをスクレイピングし、ディープフェイク動画の数と再生時間を分析し、分析サービス「SimilarWeb」を用いて人々がこれらのウェブサイトを見つける方法も調査しました。
多くのウェブサイトは、ディープフェイクポルノ動画をホストまたは拡散していることを明確に示しており、サイト名に「ディープフェイク」やその派生語が含まれていることも多い。上位2つのウェブサイトにはそれぞれ4万4000本の動画が掲載されており、他の5つのウェブサイトには1万本以上のディープフェイク動画が掲載されている。ほとんどのウェブサイトには数千本の動画が掲載されているが、中には数百本しか掲載されていないものもある。研究者が分析した動画の中には、数百万回も視聴されているものもあった。
この調査では、合意のないディープフェイクポルノを何らかの形で組み込んでいる一般的なポルノウェブサイトを300件追加で特定しました。研究者によると、「リーク」ウェブサイトや、ソーシャルメディア上の写真を再投稿するために存在するウェブサイトもディープフェイク画像を取り入れています。写真を扱うあるウェブサイトは、35万枚の写真で人物を「脱がせた」と主張しています。
オンラインで拡散するディープフェイク動画や画像の全容を測るのは非常に困難です。ソーシャルメディア上でコンテンツが共有されている場所を追跡するのは困難であり、虐待的なコンテンツはプライベートメッセージグループや非公開チャンネルでも共有されており、多くの場合、被害者の知人によって共有されています。9月には、スペインのアルメンドラレホで、11歳から17歳までの少女20人以上が、AIツールによって本人の許可なく裸の写真を生成されたとして被害を訴えました。
「ディープフェイクによる非合意のポルノ画像を作成するためのAIツールの利用可能性が大幅に高まり、ポルノプラットフォームや違法オンラインネットワークにおけるこの種のコンテンツへの需要も増加しています」と、オーストラリアのモナシュ大学でAIとテクノロジーによる虐待を専門とする准教授、アッシャー・フリン氏は述べています。この傾向は、新たな生成AIツールの登場によってさらに強まる可能性が高いでしょう。
ディープフェイク動画や画像を作成するためのウェブサイトやツールの多くは、検索を通じてアクセスされています。研究者が分析したウェブサイトには何百万人もの人々がアクセスしており、そのうち50~80%の人が検索経由でアクセスしています。検索でディープフェイク動画を見つけるのは簡単で、何を検索すればよいか特別な知識は必要ありません。
この問題は世界的な問題です。研究者はVPNを使用し、カナダ、ドイツ、日本、米国、ブラジル、南アフリカ、オーストラリアでGoogle検索をテストしました。すべてのテストにおいて、ディープフェイクのウェブサイトが検索結果に大きく表示されました。これらの動画では、有名人、ストリーマー、コンテンツクリエイターが標的となることがよくあります。マドックス氏は、ディープフェイクの拡散は「風土病」となっており、2017年12月に最初のディープフェイク動画が注目を集めた際に多くの研究者が最初に懸念したことだと述べています。
ディープフェイク動画の作成に必要なツールが登場して以来、ツールは使いやすくなり、制作される動画の品質も向上しました。画像生成ツールの急増は、より高品質な虐待画像、そして最終的には動画が作成される可能性も秘めています。そして、最初のディープフェイクが登場してから5年が経ち、偽造画像の共有を犯罪とする最初の法律がようやく制定されつつあります。
フリン氏は、これらのディープフェイクアプリの急増と、新型コロナウイルス感染症時代のデジタル通信への依存度の高まり、そして「法律や政策が追いついていない」ことが相まって、「最悪の状況」を生み出していると述べた。
ディープフェイクと生成AIの専門家で、これらの技術の拡散を監視してきたヘンリー・アジダー氏は、ディープフェイクポルノ動画、顔を変えるアプリ、そして合意のない画像の作成を具体的に可能にするツールを見つけるプロセスに「摩擦」を加えることで、拡散を抑制できると述べている。「できるだけ見つけにくくすることが大切です」と彼は言う。検索エンジンが有害なウェブサイトの検索結果を下げたり、インターネットサービスプロバイダーがサイトをブロックしたりすることが考えられると彼は言う。「こうした活動の規模と量、そしてこれまでこれらの問題を真剣に受け止めてこなかったプラットフォームが突然真剣に取り組む必要性を考えると、楽観視するのは難しいです」とアジダー氏は言う。
「他の検索エンジンと同様に、Googleはウェブ上のコンテンツをインデックスしていますが、予期せぬ有害コンテンツや不適切な露骨なコンテンツでユーザーを驚かせないよう、ランキングシステムを積極的に設計しています」と、Google広報担当者のネッド・エイドリアンス氏は、検索結果の削除時期に関するページを指差しながら述べています。Googleのサポートページには、「不本意なフェイクポルノ」の削除をリクエストできると記載されています。削除フォームでは、コンテンツを見つけるために使用したURLと検索語句を手動で入力する必要があります。「この分野が進化するにつれ、私たちは他の種類の合意のない露骨な画像のために構築したシステムに基づいて、ユーザーを保護するための安全対策をさらに追加することに積極的に取り組んでいます」とエイドリアンス氏は述べています。
マイクロソフトの最高デジタルセーフティ責任者であるコートニー・グレゴワール氏は、ディープフェイクは認められておらず、ウェブフォームから報告できると述べている。「同意のない親密な画像(NCII)の配信は、個人のプライバシーと尊厳を著しく侵害するものであり、被害者に壊滅的な影響を与えます」とグレゴワール氏は述べている。「マイクロソフトは、NCIIの勧誘や、被害者の同意のない親密な画像の作成または再配信の推奨など、当社のプラットフォームおよびサービスにおけるNCIIを禁止しています。」
動画や写真の数は急増し続けていますが、被害者への影響は長期にわたる可能性があります。「ジェンダーに基づくオンラインハラスメントは、女性の言論の自由を著しく萎縮させています」とマドックス氏は述べています。WIREDの報道によると、ディープフェイクの標的となったTwitchの女性ストリーマーは、侵害されたと感じ、さらなるハラスメントにさらされ、時間を無駄にしていると訴えており、中には合意のないコンテンツが家族に伝わったと話す人もいます。
モナシュ大学のフリン教授は、自身の研究で、デジタル虐待の結果として、不安、うつ病、自傷行為、自殺といった精神衛生上の問題が「高い割合で」発生していることが明らかになったと述べています。「画像がディープフェイクか『本物』かに関わらず、個人の精神的・身体的健康、そして雇用、家族、社会生活への影響は計り知れない可能性があります」とフリン教授は述べています。