
ゲッティイメージズ
児童性的虐待に関して、2018年は記録破りの年となりました。インターネット・ウォッチ財団(IWF)は、過去12ヶ月間で児童に対する性的虐待や性的拷問を示すウェブページを10万件以上削除しました。これは前年比で3分の1の増加です。
ネット上での児童性的虐待コンテンツの拡散に取り組んでいる世界でも数少ない団体の一つである英国を拠点とする慈善団体は、削除数の増加は単一の要因によるものではなく、検出率の向上と違法コンテンツの作成増加が組み合わさった結果であると述べている。
生の数字からは驚くべき現実が見えにくい。2018年にIWFが削除した10のウェブページのうち4つには10歳以下の児童に対する性的虐待が掲載されており、乳児や赤ちゃんが登場する回数は1,300回を超えている。
「どれだけのコンテンツが流通しているのか、私たちには分かりません」と、同慈善団体の副CEO、フレッド・ラングフォード氏は語る。「オンライン上のユーザーが増えれば、違法コンテンツも増えるということです。」ラングフォード氏と彼のチームにとって、児童性的虐待コンテンツの量の「基準値」がまだ明確ではない。「まだ、対応できる量を超えてコンテンツが流通している段階です」と彼は言うが、生産性の向上と新たな自動化ツールの導入により、慈善団体が処理できる業務量は増加している。
IWFの児童性的虐待削除プロセスの全段階を管理する新しい報告管理システムにより、生産性が50%向上しました。ラングフォード氏はこれを「業務フローの改善」と表現しており、これは本質的にクリック数、ページ数、そして記入するフォームの数が減ることを意味します。「それほど目覚ましい成果ではありませんが、新しいシステムのおかげで、同じリソースではるかに多くのことを達成できるようになりました」と彼は言います。
IWFの活動の大部分は、児童性的虐待の画像や動画の投稿先として知られている約7,000件のURLリストに依存しています。以前は、新しいコンテンツが投稿されていないことを確認し、新たな素材を探すために、このリストを毎日手作業でチェックする必要がありました。現在、このプロセスは完全に自動化されています。
IWF の 32 万件の固有画像ハッシュのリストは、業界パートナーと共有されている違法画像の膨大なデータベースであり、新しい自動化システムに部分的に統合され、人間のアナリストを反復的なデータ入力作業から解放しました。
この自動化の一部は、Microsoftが開発した画像・動画認識技術「PhotoDNA」を活用しています。「ページ上に既知の画像がある場合、その周囲の画像も違法である可能性が高いため、その画像も収集します」とラングフォード氏は述べています。2018年のある日、IWFチームは1日で2,000件以上のURLに対して対策を講じました。これは、新しいレポート管理システムとレポートの特定の側面を自動化する機能の恩恵も受けています。
しかし、生産性の向上と新たなツールやテクノロジーの活用にもかかわらず、IWFの限られたリソースは、直面する課題の規模の大きさに圧倒され続けています。IWFの13人のアナリストが削除対象としてフラグ付けした105,047件のURLのうち、82%が画像ホスティングサイトのものでした。同慈善団体のCEOであるスージー・ハーグリーブス氏は、これらのサイトが対応を拒否していることを批判し、「安全なネットワークの提供や、被害に遭った子どもたちの苦しみの緩和にほとんど配慮していない」と付け加えました。
続きを読む: 小児性愛者は広告業界の策略を利用して児童性的虐待を広めている
ラングフォード氏は、これらのサイトの大部分は合法的な画像や動画をアップロードできる正当な場所であるものの、適切なチェック体制が整っていないと説明する。「まずは、プラットフォームに問題があることを認め、対応することが重要です」と彼は言う。
IWFはすでに140社以上のインターネット企業と提携し、その技術をバックエンドに組み込むことで、児童性的虐待に関する既知のコンテンツのアップロードをほぼ不可能にしています。しかし、画像ホスティングサイトの大半は協力を拒否しています。「画像ホスティングサイトは数多く存在しますが、オンラインで大きな存在感を示しているからといって、オフラインでも大きな存在感を示しているとは限りません」とラングフォード氏は言います。
この問題の技術的な解決策は比較的単純であるにもかかわらず ― ほとんどの画像ホスティングサイトは、活動を監視できる単一のアップロードポイントを備えている ― にもかかわらず、IWFの要請には耳を貸さない。「当初の反応は、問題だと認めないというものです。何が問題なのか分からないと言うかもしれません。あるいは、自国の法執行機関とのみ連携すると言うかもしれません」とラングフォード氏は説明する。「彼らは、取り組む価値のある問題があることに気づいていないのです。そして、通常はメディアで誰かがこの問題を指摘した時に初めて、彼らは行動を起こすのです。」
IWFは、犯罪者の名前を公表して非難する方針ではなく、小児性愛者の行きつけのウェブサイトやプラットフォームとの関わりを継続することを優先している。「他の国際ホットラインが犯罪者の名前を公表して非難しようとしたところ、その活動に対して法的措置を取られました」とラングフォード氏は言う。
児童性的虐待コンテンツの量が減少する兆しを見せないことを受け、IWFは現在、人間の分析者が介入することなく、より多くの情報を提供できるよう、自動化システムの改良に取り組んでいます。今年後半には、非常に幼い子供や乳児が性的虐待を受けている画像や動画を自動的に検出できる技術を試験的に導入する予定です。これにより、人間の分析者が、最も不快で過激なコンテンツにまで手を出す必要がなくなります。
ラングフォード氏によると、年長児の画像や動画を自動認識するシステムを構築するのは、はるかに大きな課題だという。「これは自動運転車が抱える問題と同じです。脳は、すべての情報が得られなくても、非常に巧みに全体像を構築します。コンピューターはまだその段階に達しておらず、ある仮定から別の仮定へと飛躍的に進むことができません。」
IWFは自動化に加え、画像や動画への需要をそもそも抑制することにも焦点を移しています。「もし私たちがその段階で介入し、画像の撮影を阻止し、グルーミングの段階で介入できれば、需要を抑制できる可能性があります」とラングフォード氏は言います。しかし、これは依然として非常に複雑な問題です。
ネット上に投稿される児童性的虐待コンテンツのかなりの部分は、グルーミング(性的虐待)によるものであり、そのほとんどはテキストベースのチャットルームで行われています。自動化技術を用いてグルーミングが行われている時期を把握することは、今のところ解決に何年もかかる問題です。
18歳未満と思われる人物の性的画像や動画についてご心配ですか?www.iwf.org.ukにアクセスして匿名で報告してください。
この記事はWIRED UKで最初に公開されました。