ディープフェイクヌードジェネレーターが被害者の恐ろしい姿を公開

ディープフェイクヌードジェネレーターが被害者の恐ろしい姿を公開

WIREDの報道によると、有料で写真を「ヌード化」し、ユーザーがアップロードしたと思われるフィードを投稿するサイトが見つかった。投稿された画像には、幼い少女の写真や、見知らぬ人を撮影したと思われる画像などが含まれていた。

カーソルと池の近くに座っている十代の若者たちの画像を示すコラージュ。そのうちの一人の顔の上に肌色のピクセルがあります...

写真・イラスト:アンジャリ・ネア、ゲッティイメージズ

AIを活用した画像生成ツールが普及するにつれ、写真に写っている人物の衣服をデジタル的に削除するウェブサイトも増えています。こうしたサイトの一つには、こうしたアプリの使い方を垣間見ることができる不穏な機能があります。被写体を「裸に」したいユーザーがアップロードしたと思われる写真のフィードが2つあるのです。

フィードに掲載された画像は、標的を狙った人々の衝撃的な姿を如実に示している。WIREDは明らかに子供である少女の写真をいくつか確認した。また、成人の写真もあり、キャプションには女性の友人か見知らぬ女性だと記されていた。サイトのホームページには、ログインしていない訪問者向けに作成された可能性のある偽のヌード画像は掲載されていない。

ディープフェイクヌード画像を作成して保存したい人は、暗号通貨ウォレットを使用してサイトにログインするよう求められます。価格は現在公表されていませんが、2022年に提携YouTubeページに投稿された動画によると、このウェブサイトではディープフェイクヌード画像を作成するためにクレジットを5ドルで購入できるとのことです。WIREDは、NFTマーケットプレイスOpenSeaに関するサブレディットの投稿からこのサイトの存在を知りました。この投稿はYouTubeページにリンクされていました。WIREDがYouTubeに連絡したところ、YouTubeは該当チャンネルを削除したと回答し、Redditはユーザーがアカウントを凍結したとWIREDに伝えました。

WIREDは、現在もオンライン状態にあるこのウェブサイトの身元を明らかにしていません。これは、フィードを閲覧し続ける女性や少女たちを守るためです。2022年2月に開設されたこのウェブサイトのIPアドレスは、インターネットセキュリティおよびインフラプロバイダーのCloudflareが所有しています。同社の関与について尋ねられた際、広報担当者のジャッキー・ダットン氏は、CloudflareのようにウェブサイトのIPアドレスを提供することと、コンテンツをホスティングすることはしないことの違いを指摘しました。

WIREDは、児童搾取事件を法執行機関に報告する活動を行っている全米行方不明・被搾取児童センターに、このサイトの存在を通報した。

OpenAIやStability AIなどのAI開発者は、自社の画像生成ツールは商業および芸術的な用途向けであり、有害コンテンツを防ぐためのガードレールを備えていると主張しています。しかし、オープンソースのAI画像生成技術は現在、比較的強力になっており、ポルノ画像の作成は最も一般的なユースケースの一つです。画像生成がより容易に利用できるようになるにつれて、主に女性を標的とした、同意のないヌードのディープフェイク画像の問題は、より広範囲かつ深刻になっています。今月初め、WIREDはフロリダ州の10代の若者2人が、中学校の同級生のAI生成ヌード画像を同意なしに作成・共有した疑いで逮捕されたと報じました。これは、この種の事件としては初めてのケースと思われます。

ジョージ・ワシントン大学法学部の教授で、合意のない露骨な画像の問題を研究しているメアリー・アン・フランクス氏は、ディープヌードのウェブサイトは厳しい現実を浮き彫りにしていると述べています。AIが生成した女性のヌード画像や未成年者のヌード画像に関する事件は、現在一般の人々が認識しているよりもはるかに多く存在します。公表された数少ない事例が明るみに出たのも、画像がコミュニティ内で共有され、誰かがそれを知り、警鐘を鳴らしたからに過ぎません。

「追跡不可能なこのようなサイトは多種多様に存在するだろうし、被害者のほとんどは誰かが報告するまで自分にもこのようなことが起こっていることに気づかない」とフランクス氏は言う。

同意のない画像

WIREDが調査したウェブサイトには、ユーザーが投稿したと思われる写真のフィードが2つの別々のページに掲載されていました。1つは「ホーム」、もう1つは「探索」というラベルが付けられていました。写真のいくつかには、明らかに18歳未満の少女が写っていました。

1枚の写真には、髪に花を添えた少女が木に寄りかかって立っている姿が写っていた。もう1枚の写真には、中学校か高校の教室と思われる場所にいる少女が写っていた。クラスメイトがこっそりと撮影したと思われるこの写真には、「ポルノ」というキャプションが付けられていた。

サイトに掲載されていた別の画像には、中学生と思しき10代の若者たちのグループが写っていた。学校の体育館らしき場所で、笑顔でポーズをとる2人の女子生徒と男の子が自撮りをしている。男の子の顔は、スナップチャットのレンズで目が拡大され、顔が隠れてしまうほどにぼやけていた。

アップロードされたと思われる画像のキャプションには、友人、クラスメート、恋人の写真が含まれていることが示唆されている。あるキャプションには「私のガールフレンド」と書かれており、鏡で自撮りをする若い女性の姿が写っている。

写真の多くは、TikTok、Instagram、その他のソーシャルメディアプラットフォームで人気のインフルエンサーを写したものだった。他にも、日常生活の様子をシェアした人々のInstagramのスクリーンショットと思われる写真もあった。ある写真には、お祝いのキャンドルが飾られたデザートを手に微笑む若い女性が写っていた。

複数の写真には、撮影者にとって全くの見知らぬ人物が写っているように見えました。ある写真では、後ろから撮影された女性か少女が、写真撮影のためにポーズをとっているのではなく、観光名所らしきものの近くにただ立っているだけでした。

WIREDが確認したフィード内の画像の中には、女性や女児の顔が切り取られ、胸部や股間だけが映っているものもあった。

巨大な聴衆

WIREDは8日間にわたりサイトを監視し、ホームフィードに5枚の新しい女性画像、Exploreページに3枚の新しい女性画像が掲載されていることを確認しました。サイトに掲載されている統計情報によると、これらの画像のほとんどが数百回の「閲覧」数を記録しています。サイトに投稿されたすべての画像がホームフィードやExploreフィードに表示されるのか、また閲覧数がどのように集計されているのかは不明です。ホームフィードの投稿はすべて、少なくとも数十回の閲覧数を記録しています。

サイトで「最も閲覧された」画像リストのトップには、有名人やインスタグラムで多くのフォロワーを持つ人物の写真が掲載されています。サイト上で最も閲覧された人物は、女優のジェナ・オルテガ(6万6000回以上)、シンガーソングライターのテイラー・スウィフト(2万7000回以上)、そしてマレーシア出身のインフルエンサー兼DJ(2万6000回以上)です。

スウィフト氏とオルテガ氏は、過去にもディープフェイクヌードの標的にされたことがある。1月にXチャンネルでスウィフトの偽ヌード画像が拡散された事件は、ディープフェイクの影響と被害者に対する法的保護の強化の必要性について、新たな議論を巻き起こした。NBCは今月、Metaが7ヶ月間、ディープヌードアプリの広告を掲載していたと報じた。このアプリは、ジェナ・オルテガ氏の16歳の頃の写真を使って、人々の「服を脱がせる」ことができると謳っていた。

米国には、偽造された合意のないヌード画像の配信を規制する連邦法はない。少数の州が独自の法律を制定している。しかし、NCMECの被搾取児童部門のエグゼクティブディレクター、ジェニファー・ニューマン氏によると、AIによって生成された未成年者のヌード画像は、その他の児童性的虐待素材(CSAM)と同じカテゴリーに分類されるという。

「もしそれが生きた被害者、実在の子供の画像と区別がつかないのであれば、それは私たちにとって児童性的虐待資料です」とニューマン氏は言う。「そして、私たちは報告書を処理し、法執行機関に報告する際にも、それをそのように扱います。」

ニューマン氏によると、2023年にNCMECは「何らかの形で生成AI技術に関連する」約4,700件の報告を受け取ったという。

「哀れな兄弟」

同サイトでディープフェイクヌード画像を作成・保存したい人は、Coinbase、Metamask、またはWalletConnectの仮想通貨ウォレットを使用してログインするよう求められます。Coinbaseの広報担当者、マッケナ・オッターステッド氏は、同社ウォレットとのサイト統合について社内調査を開始したと述べています。Metamaskはコンセンシスが所有しており、WIREDの報道以前はコンセンシスは同サイトの存在を知りませんでしたが、現在調査を開始しています。「当社の利用規約がどのように関連しているか、そしてユーザーとWeb3エコシステム全体の安全を確保するためにどのような措置が適切かを判断する必要があります。」

WalletConnectはコメント要請に応じなかった。

2022年11月、ディープヌードサイトのYouTubeチャンネルは、ユーザーがVisaまたはMastercardで「クレジットを購入」できると主張する動画を投稿しました。Mastercardのコミュニケーション担当シニアバイスプレジデント、セス・アイゼン氏は、「当社のネットワークでは、合意のないディープフェイクコンテンツの購入は許可されていません」と述べ、そのような行為の疑惑については調査中であると述べました。Visaはコメント要請に応じませんでした。

NFTマーケットプレイスOpenSeaでは、2022年に30個のNFTが出品され、InstagramやTikTokのインフルエンサー(いずれも女性)の、ディープフェイクではない無修正写真が掲載されていた。イーサリアム(ETH)でNFTを購入すると(現在の為替レートで280ドル相当)、所有者はウェブサイトにアクセスできるようになる。ウェブアーカイブによると、当時はまだ初期段階だったという。NFTの出品には、「ユーザーにとってプライバシーは最優先事項です」と書かれていた。

NFTは、女性の特徴を表すタグで分類されていました。カテゴリには、胸のサイズ、国籍(女性のほとんどはマレーシアか台湾出身)、そして「可愛い」「無邪気」「母性」といったタグが付けられていました。

このアカウントが出品したNFTはどれも売れませんでした。OpenSeaはWIREDの連絡を受けてから90分以内に出品とアカウントを削除しました。NFTに写っている女性たちは誰もコメントに応じませんでした。

deepnudeというウェブサイトを誰が、あるいは何人が作成し、所有しているのかは不明です。現在削除されているOpenSeaのアカウントのプロフィール画像は、「オタク」でGoogle画像検索で3番目に表示される画像と全く同じでした。アカ​​ウントのプロフィールには、作成者のモットーは「この世の最低なものを暴露し」、それを「すべてのバカと哀れな仲間たち」と共有することだと書かれていました。

OpenSeaアカウントからリンクされたXアカウントも同じプロフィールを使用し、「ホワイトハット、ブラックハットハッキング」と「詐欺と金儲け」に関する現在は閉鎖中のブログにもリンクしていました。このアカウントの所有者は、そのブログの3人の寄稿者の1人だったようで、69 Fuckerというニックネームで活動していました。

このウェブサイトは、たった1人のユーザーによってRedditで宣伝されていました。そのユーザーは、50歳未満と思われる東アジア系男性のプロフィール写真を投稿していました。しかし、2022年3月のウェブサイトのアーカイブには、このサイトは「9人のスケベでスキルフルな人々によって作成された」と記載されています。プロフィール画像の大部分はストックフォトのようで、職業名もすべて冗談めいたものでした。そのうち3人は「Horny Director(スケベな監督)」「Scary Stalker(怖いストーカー)」「Booty Director(戦利品監督)」でした。

このウェブサイトに関連する電子メールアドレスはコメントに対して返答しなかった。

更新:2024年2月26日午後1時35分(東部夏時間):この記事はMastercardからのコメントにより更新されました。

更新 2014 年 3 月 25 日午後 3 時 5 分 (東部夏時間):この記事は、Consensys からのコメントを含めるように更新されました。

キャロライン・ハスキンズはWIREDのビジネス記者で、シリコンバレー、監視、労働問題を取材しています。以前はBusiness Insider、BuzzFeed News、Vice傘下のMotherboardで記者を務め、Business Insiderではリサーチエディターを務めていました。…続きを読む

続きを読む