Apple、CSAM対策としてデバイス内ヌード検出機能を拡張

Apple、CSAM対策としてデバイス内ヌード検出機能を拡張

昨年12月、Appleは、児童性的虐待コンテンツ(CSAM)対策としてプライバシー保護を目的に開発した、物議を醸していたiCloud写真スキャンツールを廃止すると発表した。その後、AppleはCSAM対策を、2021年8月に最初に発表した子供向けの「コミュニケーションセーフティ」機能に重点を置くと発表。そして本日、クパチーノで開催された同社の世界開発者会議(WDC)において、成人向けの追加機能を含む、このメカニズムの拡張を発表した。

コミュニケーションセーフティは、幼児ユーザーのデバイス上でメッセージをローカルスキャンし、iOS上で子供が受信または送信するメッセージにヌードを含むコンテンツが含まれている場合にフラグを立てます。Appleは本日、この機能がFaceTimeビデオメッセージ、電話アプリの連絡先ポスター、ユーザーが送信する写真やビデオを選択する写真選択ツール、そしてAirDropにも拡大されることを発表しました。この機能はデバイス上で処理されるため、Appleはフラグが立てられたコンテンツを見ることはありませんが、今秋から、ファミリー共有プランのすべての子供アカウント(13歳未満のお子様)でコミュニケーションセーフティがデフォルトでオンになります。保護者は必要に応じてこの機能を無効にすることができます。

「コミュニケーションセーフティは、お子様に少しの間立ち止まってもらい、事実上グルーミング(少なくともグルーミングの可能性)の会話から抜け出す機会を与えたい機能です」と、Appleのユーザープライバシー責任者であるエリック・ノイエンシュワンダー氏は語る。「ですから、これは大きな摩擦を生み出すことを意図しています。そのお子様の状況において、おそらく正しいと思われる答え、つまり先に進まないという答えを提示し、お子様にその答えをしっかりと理解してもらいたいと考えているのです。」

Appleは12月、サードパーティ開発者がコミュニケーションセーフティを自社のアプリに容易に組み込み、児童性的虐待コンテンツ(CSAM)の検出に利用できるよう、アプリケーションプログラミングインターフェース(API)を提供する計画を発表しました。「センシティブコンテンツ分析フレームワーク(Sensitive Content Analysis framework)」と呼ばれるこのAPIは、現在開発者向けに公開されています。Discordなどのプラットフォームは、既にiOSアプリへの組み込み計画を表明しています。

Apple iPadのメッセージアプリでコンテンツの安全性に関する警告が表示されている

お子様のアカウントに対するコミュニケーションの安全性に関するプロンプト。

写真:アップル

コミュニケーションセーフティのようなCSAM対策に対する批判の一つは、アプリやサービス全体を網羅し、コンテンツをフラグ付けしてあらゆる場所で子供たちを保護する体制が整っていないため、虐待者とのコミュニケーションが漏れてしまう可能性があるという点です。まさにこれが、Appleがアプリ開発者が自社のソフトウェアに容易に組み込める堅牢なAPIの開発に多額の投資を行った理由です。

「このモデルを構築するには、多くの作業が必要でした」とノイエンシュヴァンダー氏は語る。「一度投資すれば、プラットフォーム全体、そしてユーザーが利用するあらゆるアプリケーションに活用できるようになります。」

メッセージアプリで安全機能が表示されている2台のiPhone

成人のアカウント向けのオプトインのセンシティブなコンテンツ警告。

写真:アップル

Appleは、「コミュニケーションの安全性」に加え、成人向け機能への関心に関するフィードバックも受け取っていると述べています。そこで本日、Appleは「センシティブなコンテンツの警告」もリリースしました。これは、同様にローカルスキャンを使用して、ヌードを含む画像や動画にフラグを付け、ぼかしを入れる機能です。この機能はオプションで、iOSの「プライバシーとセキュリティ」設定メニューで操作できます。また、「コミュニケーションの安全性」よりも目立たない設計となっています。成人ユーザーを、邪魔になったり役に立たなくなったりすることなく、見たくないコンテンツから保護することが目的です。

ネット上の児童性的虐待に真摯に対処し、その削減を図ることは、複雑で困難な問題です。Appleは、新たな解決策の探求と投資は今後も継続するとしています。しかし、これほど大きなリスクを伴う問題だからこそ、Appleのような企業にとって、効果を発揮し、可能な限り広く普及を促進する機能を導入することが喫緊の課題となっています。