小児性愛スキャンダルはYouTubeの欠陥を露呈している。根本的な変化だけが修復を可能にする

小児性愛スキャンダルはYouTubeの欠陥を露呈している。根本的な変化だけが修復を可能にする

画像には道路が含まれている可能性があります

YouTube/WIRED/ゲッティイメージズ

YouTubeは、小児性愛者が同サービスを利用して幼い子供の動画を視聴、議論、共有するのを阻止しようと奮闘している。数千本の動画へのコメント投稿を停止したが、真の解決策はモデレーションではないと、2010年から2013年までYouTubeのレコメンデーションエンジンに携わったAI研究者、ギヨーム・シャスロ氏は指摘する。

「これはAIの問題であり、コメント欄の問題ではありません」とシャスロット氏は言う。「モデレーションの問題でもありません。」

YouTubeは現在、動画への小児性愛的なコメントが指摘された際にこれまで行ってきたのと同様に、鎮火活動に取り組んでいます。広報担当者によると、未成年者が登場する数千万本の動画のコメント機能を無効化し、不適切なコメントとそれを投稿したアカウントを削除したとのことです。

「問題の核心は、これらの小児性愛者がYouTubeで何時間も少女たちの動画を視聴していることです」とシャスロット氏は言う。YouTubeのAIは主に視聴時間に合わせて最適化されており、小児性愛者が魅力的だと思う子供の動画に何千時間も費やせば、それらの動画がおすすめされる可能性が高くなる。

YouTube には毎分 400 時間以上の動画がアップロードされており、小児性愛者のターゲットとなっている動画のほとんどは、単に子供たちが遊んだり、踊ったり、体操をしたりする様子を映した、全く無害な内容です。

つまり、単に「悪い動画」を排除するだけでは不十分なのです。YouTubeは不適切な動画をプラットフォームから排除するための対策として、人間のコンテンツ評価者を活用していますが、シャスロット氏が指摘するように、YouTubeの評価チームのメンバーは、どの子供の体操動画が小児性愛者を刺激するのかを容易に見分けることはできません。なぜなら、簡単に言えば、評価者は小児性愛者ではなく、何に注意すべきかを知らないからです。

プラットフォーム上での小児性愛者の活動に関する主張を確認するための調査中に、私たちは標的とされた動画を取り巻くいくつかの特徴的なパターンに気づきました。

チャンネル内の他の動画と比べて異常に高い再生回数。通常、子供向けの動画は60回や200回程度ですが、小児性愛者の興味を引く動画は突然数十万回にまで再生回数が急増します。

大量のコメント。コメントには、視聴者を動画の特定の部分に誘導するタイムコード、キス顔の絵文字、そして「感嘆」のフレーズなどが含まれることが多く、多くの場合英語以外の言語で書かれています。

そして最後に、アカウントが 2 つのうち 1 つの動画を視聴した後に、小児性愛者が楽しめる他の動画を提案するアルゴリズムのフィードバック ループがあります。

これらの要素はすべて、YouTube の小児性愛者問題に対する技術的解決策の開発に役立つ可能性があるほど特徴的だが、シャスロット氏は、これは Google が焦点を当てる必要がある最後の特性だと述べている。

「これをAIの問題として捉える必要があるんです」と彼は説明する。「ネットワークを見て、『わあ、この奇妙な体操の動画がフィットネス集団と少女集団を結びつけている』と気づくんです」

最近の暴露を受け、YouTubeは児童動画の収益化も停止している。これにより、大手ブランドの広告が小児性愛者的なコメントと並んで表示されるリスクが軽減される。しかし、YouTubeで人気となっているリアリティ番組風のビジネスモデルの一環として、児童動画を収益化している家族向けvlogger(ブロガー)たちから苦情が出ている。

最近の小児性愛者危機の直後、YouTubeはポケモンGO関連のコンテンツを削除した。コメント欄に「CP」という用語が頻繁に登場したことが原因と思われる。「CP」はポケモンの世界では「戦闘ポイント」を意味するが、他のよりダークな文脈では「児童ポルノ」の略語としても使われている。

YouTubeの担当者はTwitterでコンテンツクリエイターとこの問題について話し合った際、「現時点では、積極的なアプローチとより広範な措置を講じる必要がありました。また、このようなコンテンツを検出・削除するためのツールの改善にも投資しており、クリエイターの皆様のモデレーションへの依存度を軽減していきます」と述べました。

YouTubeは、YouTube Studioのコミュニティ設定において、チャンネルクリエイター向けに様々なオプションを提供しています。これには、特定の単語を自動的にフィルタリングする機能、チャンネルモデレーターの承認を得るためにコメントを一時停止するオプション、ハッシュタグやリンクを自動的にブロックするオプションなどが含まれます。

残念ながら、問題となっているコメントの多くは、YouTube の現在の AI コメント検出ツールと多くのブロックされた単語リストを回避するために、無害な単語、絵文字文字列、英語以外の言語を使用しています。結局のところ、「かわいい」「素敵」「水着」という言葉自体に本質的に問題があるわけではありません。

シャスロット氏の立場に戻ると、これは実際にはモデレーションの問題ではない。彼は、推奨アルゴリズムが関連動画の特定のネットワーク内での視聴時間に基づいてユーザーに表示する動画を決定し、その主目的が動画の内容に関わらずそれらの動画の視聴時間を増やすことである限り、この問題は解決しないだろうと述べている。

小児性愛者が長い時間費やした動画は、コメントできるかどうかに関わらず、似たような内容に少しでも興味を示した他の人に提案される可能性が高い。こうして、インフルエンサーが洋服の買いだめや10代の体操選手権を披露する動画から、幼い子供が大人の男性に性的娯楽として見られる動画へと滑り込むことが可能になるのだ。

シャスロット氏は、解決策は、少なくとも子どもが関わるコンテンツに関しては、AI の優先順位を視聴時間から変更することだと主張している。

「(AIによる)おすすめの数を見れば、視聴回数が増える前に問題を解決できます」AIは視聴時間を将来の人気度の予測やおすすめの判断材料として活用するため、「(無害な)動画をすべて禁止する必要はありません。一部の動画のおすすめをやめるだけで十分です」と彼は言う。

YouTubeがアルゴリズムのワームホール効果を打ち破る望みを少しでも抱くためには、動画をユーザーにおすすめする方法と理由を変える必要がある。そして、シャスロット氏が示唆するように、第一歩は、どんな犠牲を払ってでも視聴時間を優先するのをやめることだ。

この記事はWIRED UKで最初に公開されました。