Facebook が新たに公開した 27 ページのコミュニティ スタンダード文書は、有害なコンテンツと言論の自由とのバランスを取るための大変な取り組みを明らかにしている。

Facebookが新たに公開した27ページにわたるコミュニティ基準文書は、有害なコンテンツと言論の自由のバランスを取るための大変な努力を明らかにしている。HOTLITTLEPOTATO
誰かを食べたとしても、Facebookでシェアしないでください。人食い動画は禁止されています。
人食い被害者の静止画も同様です。生死に関わらず。ただし、医療関係の文脈で18歳以上のみ閲覧可能という警告が出ている場合は除きます。しかし、人食いに関するフェチコンテンツは?全年齢対象です。ニュースフィードだけでなく、Instagramなどの他のFacebookサービス、さらにはMessengerでも禁止されています。
Facebookは本日、22億人のユーザーが投稿したコメント、メッセージ、画像がポリシーに違反しているかどうかをモデレーターが判断する際に使用するコミュニティ規約のプレイブックを、ほぼすべて公開しました。これは、Facebookが前例のない批判に直面し、よりオープンな姿勢を示すために現在行っている「Trust-A-Palooza」活動の一環です。これにより、Facebookは世界中のコンテンツモデレーターが日々どれほど多くの醜悪な行為に対処しているか、そして常に正しい対応をすることがいかに難しいかを、明らかにしています。
「ずっとこれをやりたいと思っていました」と、Facebookのグローバルポリシーマネジメント責任者であるモニカ・ビッカート氏は声明で述べた。彼女はFacebook入社前、連邦検察官とバンコク駐在の米国大使館の法律顧問を務めていた。(また、昨年1月には議会でFacebookを弁護するという、いかがわしい栄誉も得た。)「実際に、Facebookの基準について話した際に、『あなたたちにポリシーがあるとは知りませんでした』と言われたことがあります」
マーク・ザッカーバーグCEOが今月初めに2回にわたる議会公聴会で証言した直後の今回の発表は、遅すぎたとまでは言わないまでも、絶好のタイミングと言える。ザッカーバーグ氏は繰り返しFacebookへの投稿内容に責任があると主張しており、議員らが、オピオイドの販売からジェノサイドを引き起こした可能性のあるミャンマーでのヘイトスピーチまで、同社のモデレーター(現在7,500人)が明らかに不適切なコンテンツを削除しなかった事例を取り上げた際には謝罪した。しかし同氏は、モデレーターを増やし、最終的にはユーザーが不適切だとフラグを立てたコンテンツを確認するのが一般的であるモデレーターよりもはるかに迅速に不適切なコンテンツを検出するAIアルゴリズムでプロセスを自動化することで、Facebookが問題を最小限に抑える方向に進んでいるという信念を決して曲げなかった。
激しい尋問の中で、彼は同社が自ら定めたコミュニティ基準を徹底しつつ、一部のユーザーが不快と感じるかもしれない発言も含め、自由な表現を奨励するために取っている微妙なアプローチを説明する機会を得られなかった。Facebookのジレンマは、ユーザーの言論を厳しく検閲することなく、ユーザーにとって安全な場所でありたいと考えていることだ。本日公開された文書では、「コンテンツを削除することで特定の害を防ぐことができる場合を除き、一部のユーザーが不快と感じるコンテンツであっても、当社はコンテンツを許可するというスタンスをとっています」と説明している。
悪魔は細部に宿るというなら、この27ページにわたるガイドはまさに悪魔の所業と言えるだろう。ビッカート氏によると、このポリシーはモデレーターに提供される作業文書のほぼ全てを網羅しているという(例外は、テロリズムなど、不正行為者が検知を逃れやすくなる可能性のある分野の情報に関するものだ)。そして、これは生きた文書であり、本日の公開は間違いなく具体的な批判を招き、同社はそれをポリシーの継続的な改訂に考慮することになるだろう。
この文書には不適切なコンテンツに関する警告は付いていませんが、簡単に付く可能性があります。約8,000語に及ぶ箇条書きの禁止事項リストには、嫌がらせや露骨な暴力、偽ニュースや偽アカウントなど、Facebookが20種類以上の違反行為をどのように定義しているかが、しばしば明確なレベルで詳細に記述されています。「立つことができないほど幼い乳児を手首、足首、腕、脚、または首で投げたり、回したり、揺さぶったりする」動画を禁止する箇条書きを考えてみてください。この基準では、Facebookに対し、「身体の一部に複数の自傷行為の痕跡があり、画像の主な主題が1つ以上の治癒していない傷跡である画像」を投稿する人々にリソースを提供することを求めています。
このポリシーの一部は以前にもリークされており、2017年5月にはガーディアン紙が以前の研修資料の大部分を公開した。しかし、公式ポリシーを公開することは大きな一歩だ。Facebookは、「大量殺人犯」の定義のような、一見不合理な区別によって嘲笑の的になっていることを認識している。(4人を殺害すれば「大量殺人犯」に該当し、2人から3人の場合は「連続殺人犯」となり、崇拝者たちはあなたを擁護する余裕が少しある。)しかし、このような些細な詳細がなければ、モデレーターはどのようにポリシーを施行できるのだろうか?ザッカーバーグ氏が議会で述べたように、「私たちは、ポリシーを可能な限り主観的なものにしないよう努めています」。
ヘイトスピーチに関しては、基準は最も厳格です。これは、真に有害なコンテンツの禁止と、人々が一般的に不満を吐き出せるようにすることの間の微妙なバランスを取ろうとする試みです。ただし、ヘイトスピーチについて議論する際には、ヘイトスピーチを使用することは問題ありません。また、ヘイトスピーチを揶揄するために引用することは可能です。こうした判断の難しさから、同社はプロセスの自動化に苦慮していますが、ビッカート氏は、アルゴリズムが近いうちにヘイトスピーチを効果的に検出できるようになると楽観視しています。
Facebookはコンテンツモデレーションのベールを剥がすだけでなく、個々の投稿に対する投稿禁止への異議申し立ても可能にします。これまではページ全体に対してのみ可能でした。ヌードや性行為、ヘイトスピーチ、暴力描写を含む投稿の削除から始め、Facebookは迅速な説明と、理想的には24時間以内の再検討を約束しています。EFFの法務ディレクター、コリン・マクシェリー氏は、より迅速で透明性の高い異議申し立てプロセスは歓迎されるだけでなく、必要不可欠だと述べています。「努力にもかかわらず、不適切な削除は依然として多く見られるでしょう」と彼女は言います。「民間の検閲の世界に入り込むと、そうした区別をつけるのが難しくなります。」
Facebookのコミュニティ規定は長年にわたり批判と監視の的となってきました。2015年には、授乳中の写真を投稿禁止にされたことに女性たちが憤慨し、ドラァグクイーンのコミュニティはFacebookの「実名」ポリシーに抗議しました。これに対し、Facebookはコンテンツの規制方法についてこれまでにないほど詳細な情報を提供し、例えば授乳に関する論争に対しては、「乳首が写っている女性の胸の画像も一部制限していますが、授乳中の女性や乳房切除後の傷跡のある胸を露出している女性の写真は必ず許可しています」といった回答を示しました。
当時、これらの規則はFacebookがこれまで公開してきたものよりも広範かつ詳細なものでした。しかし、3年と2度の混乱した議会公聴会を経て、Facebookにおける検閲と望ましくないコンテンツに関する懸念が高まっている現状を考えると、これらの規則は非常に曖昧で、誤解を招きやすいものとなっています。
先週、同社は発表に先立ち、コンテンツ基準フォーラムの隔週会議に数名の記者を同席させた。このグループはコンテンツポリシーの策定と改訂を担当する。メンバーはFacebook社員で、多くは公共政策や法律のバックグラウンドを持ち、性犯罪といったデリケートな分野の専門知識も持っている。会議場での実際の会話の内容は公開されなかった。なぜなら、議論は流動的なポリシー問題に触れていた可能性があるためだ。しかし、これはヘイトスピーチ、テロリズム、性犯罪者といった問題を扱う典型的なセッションだったと説明された。ビッカート氏とコンテンツポリシーチームを率いるメアリー・デブリー氏の指揮の下、メンロパークの会議室に集まった約20名のFacebook社員は、ワシントンD.C.、ダブリン、その他の地域からビデオ会議で参加した。中には、ニューヨーク市の「Death and Co.」という会議室に一人で参加していた人もいた。
会議では2つのカテゴリーの議題が取り上げられる。「重要事項」は政策調整が必要な事項であり、「勧告」は多くの場合外部の専門家や利益団体と協議しながら特定の問題に取り組む作業部会の成果に関係する。
Facebookのデータ主導の精神に則り、議論されている事項は、問題のニュアンスに関する相当な調査に基づいており、その結果は部屋の脇に設置された巨大スクリーンに表示される。例えば、ある提言は、特に物議を醸している問題に関するものだった。検討しているグループは4つの選択肢を提示し、その1つがポリシーを現状維持することだった。活発な議論の後、原則的には理想的と思われる選択肢を採用することは、実際には誤解されやすいという点で合意が得られた。ビッカート氏は最終的に、ポリシーを変更しないという判断を下した。Facebookがこのような問題について最終判断を下すことに抵抗がないかとの質問に対し、ビッカート氏は「はい」と答えたものの、ポリシーは常に流動的であり、外部からのフィードバックは歓迎すると明言した。
円卓会議で明らかになったもう一つの点は、Facebookがメインアプリだけでなく、そのすべてのプロパティをポリシー適用の対象としているという認識だった。「ポリシーは、共有相手が1人であろうと複数人であろうと、適用されます。実際、Messenger経由で報告が寄せられているのも確認しています」と彼女は言う。
法的な観点から言えば、Facebookにはこれらのポリシーを策定したり施行したりする義務はありません。ソーシャルメディアプラットフォームを言論の「セーフハーバー」と定義する1996年法の条項によって、Facebookはユーザーの言論による影響から保護されています。この「第230条」は、コンテンツに責任を持つ出版社とFacebookを区別するものです。しかしFacebookは、嫌がらせ、いじめ、性的コンテンツ、銃器密輸といった悪質な行為に陥らないためには、法的最低限の措置を超える必要があることを認識しています。また、この条項が支援対象としていたインターネットスタートアップ企業が巨大企業になった今、第230条の廃止を求める声が高まっています。
最終的にFacebookはユーザーに説明責任を負わなければならず、透明性はそのための一歩です。このオープン性の実験の真の試金石は、Facebookが受け取ったフィードバックにどれだけ反応するか、そしてコンテンツモデレーションに対する同社の目標が現実にどれだけ合致しているかです。さらに、許可されるコンテンツを規制することは、Facebookが抱えるコンテンツ問題の一面に過ぎません。ニュースフィードのランキングを決定するアルゴリズムについても、同様の透明性が同様に重要になり得ます。
Facebookのガイドラインのイエズス会的な特異性を嘲笑するのは簡単です。しかし、コミュニティの基準と22億人の言論の自由のバランスを取ることは途方もない課題であり、それが本当に可能かどうかはまだ分かりません。ビッカート氏とFacebookはそれが可能だと信じています。そして今、私たちは彼らがどのようにそれを実行しているかを自らの目で見ることができるのです。
透明性に向かって
- Facebookが2015年にコミュニティ規約を更新した当時、同社のユーザー数はわずか14億人でした。現在では22億人にまで増加しています。
- フェイスブックから男性器の写真や斬首の画像を排除するのは、目に見えない世界規模の労働力によって遂行される陰惨な仕事だ。
- Facebook の透明性推進は、ソーシャル ネットワーキングの巨人における 2 年間の地獄の後に起こった。

イッシー・ラポウスキーは、テクノロジーと国内情勢を専門とするジャーナリストです。彼女の記事は、ニューヨーク・タイムズ、ファスト・カンパニー、アトランティックなど、数多くのメディアに掲載されています。以前はWIREDのシニアライターを務めていました。…続きを読む

スティーブン・レヴィはWIREDの紙面とオンライン版で、テクノロジーに関するあらゆるトピックをカバーしており、創刊当初から寄稿しています。彼の週刊コラム「Plaintext」はオンライン版購読者限定ですが、ニュースレター版はどなたでもご覧いただけます。こちらからご登録ください。彼はテクノロジーに関する記事を…続きを読む