コンテンツモデレーションは難しい。これは当然のことであるはずなのに、忘れられがちだ。膨大なリソースを費やし、容赦なく作業が続く。困難で、しばしば維持不可能な区別をしなければならない。特に世界規模で見ると、基準がどうあるべきか全く不明確だ。そして、たった一度の失敗が、数百万もの静かな成功を覆い隠すほどの世論の怒りを買う可能性がある。プラットフォームをこのような状況に陥れた責任の一端は、私たち社会にある。私たちは時にモデレーターの介入を非難し、時にその不在を非難する。
それでもなお、私たちは民間企業に、適切な公共の言論の境界を設定し、それを強制する権限を与えてしまいました。これは、ごく少数の企業によって保持されるには巨大な文化的権力であり、しかもその大部分は密室で行使されているため、外部からの監視や異議申し立ては困難です。プラットフォームは頻繁に、そして明らかに私たちの期待に応えられていません。実際、その事業の規模の大きさを考えると、ほとんどのプラットフォームにとっての成功の定義には、ユーザーを定期的に失望させることが含まれています。

Tarleton Gillespie 著Custodians of the Internetより引用。
ソーシャルメディア企業が最も大きな利益を上げてきたのは、ウェブと参加型文化の約束を私たちに売りつけることでした。しかし、その約束は崩れ始めています。一部の人々がポルノを投稿したり、誤解を招いたり、憎しみに満ちた発言をしたりすることに対して、プラットフォームの責任を問うことはできませんが、プラットフォームがそうした傾向をいかに誘発し、助長し、増幅させ、悪化させているかを、私たちは今、痛感しています。
10年以上にわたり、ソーシャルメディアプラットフォームは自らを単なる媒体と位置づけ、コンテンツモデレーションにおける積極的な役割を曖昧にし、否定してきました。しかし今、プラットフォームは新たな責任を負っています。個々のユーザーだけでなく、より広範な社会全体に対してです。公共生活への影響がより明白かつ複雑になるにつれ、これらの企業は公共文化の担い手として最善を尽くす方法を模索しています。これは、当初は彼らにとっても私たちにも明らかではなかった責任です。
これらすべての理由から、コンテンツ・モデレーションの実施方法と、それに期待するものを再考する必要があります。そして、その第一歩は、通信品位法第230条の改革です。この法律はシリコンバレーに莫大な恩恵をもたらしましたが、見返りを一切求めませんでした。
セーフハーバーの提供
コンテンツ・モデレーションの論理、そして米国法によって仲介業者に提供される強力な保護は、素朴な楽観主義、テクノロジーへの揺るぎない信頼、そして起業家精神に支えられたオープンウェブの初期の理想の文脈においては理にかなったものでした。皮肉なことに、これらの保護は、ウェブが提供するものに対する国民の懸念の第一波と結びついていました。
1996年に承認されたCDAは、議会がオンラインポルノに対して初めて示した対応策でした。この法律の大部分は、1年も経たないうちに最高裁判所によって違憲と判断されました。しかし、ある修正条項は生き残りました。インターネットサービスプロバイダー(ISP)をユーザーによる名誉毀損の責任から保護するために設計された第230条は、ISP、検索エンジン、そして「インタラクティブ・コンピュータ・サービスプロバイダー(IPCS)のためのセーフハーバー(免責条項)」を設けたのです。インターネットへのアクセスを提供するか、情報を伝達するだけであれば、発言の内容について責任を問われることはありませんでした。
セクション230が提供するセーフハーバーには二つの側面があります。一つ目は、仲介業者をユーザーの発言に対する責任から免除するものです。インターネットやその他のネットワークサービスへのアクセスを単に提供する仲介業者は、法的な意味でユーザーのコンテンツの「発行者」とはみなされません。電話会社と同様に、仲介業者はユーザーの言動を監視する必要はありません。二つ目は、あまり知られていない点ですが、少し趣旨が異なります。仲介業者がユーザーの言動を監視する場合でも、セーフハーバーの保護は失われません。つまり、コンテンツを削除することを選択したからといって、仲介業者が突然「発行者」になるわけではありません。誠意を持ってモデレーションを行う仲介業者は、単にコンテンツに目をつぶった場合と同様に、コンテンツのモデレーションに関する責任を負います。仲介業者が介入しないことを許容する一方で、介入を促すという相反する衝動は、ソーシャルメディアの規制方法を含め、あらゆるインターネット仲介業者の役割と責任についての私たちの考え方に影響を与え続けています。
政策的な観点から見ると、広範かつ無条件のセーフハーバーはインターネット仲介業者にとって有利です。第230条は、ISPや検索エンジンに、過去20年間依存してきた枠組みを提供しました。つまり、自らが選択した条件に介入する一方で、自らが負いたくない義務を回避するために中立性を主張する枠組みです。
注目すべきは、ソーシャルメディアプラットフォームは第230条の保護を主張しているものの、そもそもソーシャルメディアプラットフォームを想定して制定されたわけではないということです。第230条が策定された当時、そのようなプラットフォームはほとんど存在しませんでした。米国議会が規制していたのは、ISPやアマチュアウェブ「パブリッシャー」(個人のページ、独立型ウェブサイトを持つ企業、オンラインディスカッションコミュニティなど)が大部分を占めるウェブでした。ISPはネットワークへのアクセスを提供していましたが、当時、コンテンツの仲介業者はAOLやProdigyといった「ポータル」、AltaVistaやYahoo!といった初期の検索エンジン、そしてBBSシステム、チャットルーム、ニュースグループの運営者だけでした。ブログはBlogspotやWordPressのような大規模ホスティングサービスが発明されるずっと前の、黎明期にありました。Craigslist、eBay、Match.comは設立から1年も経っていませんでした。ウェブページにコメントする機能も、プラグインとして簡素化されていませんでした。この法律はFacebookだけでなく、MySpace、Friendster、LiveJournalよりも古くから存在していました。それは Google よりも古いものです。
世界は変わった
ソーシャルメディアプラットフォームは、第230条に定められたセーフハーバー条項の維持に熱心に取り組んでいます。しかし、プラットフォームの責任については、ゆっくりとした見直しが進められています。当初は性的に露骨で暴力的な画像に集中していた違法コンテンツに関する国民および政策当局の懸念は、ヘイトスピーチ、自傷行為、プロパガンダ、過激主義へと拡大しています。プラットフォームは、女性蔑視、人種差別、同性愛嫌悪による攻撃、荒らし行為、嫌がらせ、暴力の脅迫など、ユーザーが他のユーザーを標的にする深刻な問題に対処しなければなりません。
米国では、過激コンテンツ、嫌がらせ、ネットいじめ、そして合意のないポルノ(通称「リベンジポルノ」)の配信に対する懸念の高まりが、この第230条へのコミットメントを試している。多くのユーザー、特に女性や人種的マイノリティは、嫌がらせや虐待の有害な文化にうんざりしており、プラットフォームには介入する義務があると考えている。2016年初頭、オバマ政権は米国のテクノロジー企業に対し、過激コンテンツを特定し、削除するか国家安全保障当局に報告するための新たな戦略を策定するよう促した。4月に成立した物議を醸した「州と被害者によるオンライン性的人身売買対策法」(FOSTA)は、エスコートサービスを装った性的人身売買を助長する広告を掲載するサイトを罰する。特定の種類の忌まわしいコンテンツや行為に対してプラットフォームに責任を負わせるよう求める声は、かつては堅固だった第230条のセーフハーバーを揺るがしている。
こうした躊躇は世界各地で高まっており、特にテロリズムやヘイトスピーチをめぐっては顕著です。ISISをはじめとする過激派グループがソーシャルメディアを活用し、衝撃的な暴力画像で恐怖を拡散する中、西側諸国政府はソーシャル企業に対し、テロ組織の取り締まりを強化するよう圧力をかけています。2016年には、欧州議会議員が4大テクノロジー企業に対し、ヘイトスピーチに関する「行動規範」を策定するよう働きかけ、より厳格な審査体制の構築と、削除要請への24時間以内の対応を約束しました。最近では、欧州委員会が、ソーシャルプラットフォームに対し、通知から1時間以内にテロ関連コンテンツや違法コンテンツを削除する準備を整えるよう求める、拡張された(拘束力のない)ガイドラインを発表しました。
コンジットもコンテンツも
こうした問題が長年にわたり認識され、認識が深まっているにもかかわらず、第230条の根底にある論理は依然として揺るぎない。ソーシャルメディア・プラットフォームが約束する開放性、中立性、実力主義、そしてコミュニティは、依然として強力で魅力的であり、ネットワーク文化と真に民主的な情報社会の理想と深く共鳴している。しかし、ソーシャル・プラットフォームが形態と目的において多様化し、ユーザーがオンラインでどのように、どこで出会うかという点においてより中心的な存在となり、言葉や画像だけでなく、商品、金銭、サービス、そして労働力の流通にも関与するようになるにつれ、それらに与えられたセーフハーバーはますます問題を抱えているように思える。
ソーシャルメディアプラットフォームは、発言するユーザーとそれを聞きたいユーザーの間を仲介するという意味で、仲介者です。この点において、ソーシャルメディアプラットフォームは検索エンジンやISPだけでなく、従来のメディアや通信会社にも類似しています。あらゆる種類のメディアは、生産者と聴衆、発言者と聞き手、個人と集団の間をどのように仲介するかを監督するための、何らかの規制枠組みに直面しています。
ソーシャルメディアは、メディアとコミュニケーションに関する私たちの考え方に深く根付いた、1世紀にも及ぶ区別を覆すものです。ソーシャルプラットフォームは、ユーザー同士を繋ぎ、選ばれたオーディエンス(個人、友人リスト、あるいはメッセージを探している可能性のあるすべてのユーザー)に届けられるメッセージを託された「導管」となることを約束しています。しかし、サービスの一環として、これらのプラットフォームはコンテンツをホストするだけでなく、コンテンツを整理し、検索可能にし、そして多くの場合、アルゴリズムによってその一部を選別し、フロントページ、ニュースフィード、トレンド、登録チャンネル、あるいはパーソナライズされたおすすめとして配信します。ある意味では、こうした選択肢こそが製品であり、ユーザーを引き込み、プラットフォームに留まらせることを目的としており、広告やますます増加する個人データへの配慮によってその対価を得ているのです。
ソーシャルメディアプラットフォームが、ユーザーの投稿にタグを付けたり、並べ替えたり、検索したり、分類したり、コンテンツをパーソナライズしたり、トレンドや人気、注目のコンテンツを表示したりする機能を追加した瞬間、つまりユーザーの投稿を時系列順に一覧表示する以外の機能を追加した瞬間、ソーシャルメディアプラットフォームは、投稿者のためにコンテンツを配信するのではなく、アクセスする人のためにコンテンツをパッケージ化するようになりました。これにより、ソーシャルメディアプラットフォームは、導管でもコンテンツでもなく、ネットワークでもメディアでもなく、現行法では想定されていないハイブリッドな存在となります。
ユーザーが誤ってどちらか一方であると想定し、実際には全く異なるものであることに気づいて驚愕するのは当然のことです。ソーシャルメディアプラットフォームは、信頼できる情報伝達手段として自らを装い、ユーザーの投稿をサービスに反映させる方法について曖昧な態度をとってきたため、この混乱に加担してきました。そして、法学者のフランク・パスクアーレが指摘するように、「政策立案者は、仲介者が両方の立場を持つことを拒否し、コンテンツか伝達手段のどちらかの権利と責任を負わせることも可能でしょう。このような展開は、多くの仲介者がそれぞれの権利を享受し、どちらの責任も負わないという現状よりも公平でしょう。」
第230条の改革
今でも、セクション230を強く擁護する人は少なくありません。同条項が提供する「許可のないイノベーション」は、ウェブの発展、そして現代のシリコンバレーの発展を可能にしたと言えるでしょう。そして、その発展を継続させるために不可欠だと考える人もいます。法学者のデイビッド・ポスト氏が述べたように、「合衆国法典の中で、この条項以上に価値を生み出した条項は他にありません」。しかし、セクション230擁護者の中には、ほんのわずかな見直しでさえ、インターネットの閉鎖、デジタル文化の終焉、そしてシェアリングエコノミーの崩壊につながるかのように捉える傾向があります。セクション230がなければ、責任リスクから、プラットフォームは少しでもリスクのあるものはすべて排除するか、見て見ぬふりをするかのどちらかになるだろうと指摘する人もいます。起業家は、法的リスクがあまりにも高額に見えるため、新しいプラットフォームサービスへの投資を躊躇するでしょう。
この議論には賛同します。しかし、嫌がらせやテロといった切実な懸念に直面した際に、第230条を擁護する典型的な論法は、「全か無か」というレトリックに陥りがちです。強力な第230条によって例外なく完全な法的免責が保証される一方で、第230条が崩壊するにつれてプラットフォームに全面的な責任が課せられるという主張は、全く不合理です。
セクション230の起草時に失われた機会に対処する時が来ました。善意に基づくモデレーションの権利と、モデレーションを一切行わない自由を含むセーフハーバーは、誕生間もないインターネット業界にとって計り知れない恩恵でした。歴史的に、これほど大きな恩恵には、何らかの形で公共に奉仕するという相応の義務が伴ってきました。電話会社に与えられた独占権には、すべてのユーザーにサービスを提供する義務が伴いました。放送免許には、ニュース、気象警報、教育番組を提供する義務が課されることもありました。
セーフハーバーという恩恵は、最終的には公的な義務と結びつくことになるかもしれない。それは、何を削除するかという外部基準ではなく、モデレーションが公正かつ公に、そして人道的に行われるべき方法を示す基準である。このような相応の義務には、以下のようなものが含まれるだろう。
透明性義務。プラットフォームは、モデレーションプロセスに関するデータを一般公開または規制当局に報告することが求められる可能性があります。いくつかの大手プラットフォームは削除要請を自主的に報告していますが、これらは通常、政府からの要請に焦点を当てています。最近まで、フラグ付け、ポリシー変更、または自発的に行われた削除に関するデータを体系的に報告しているプラットフォームはありませんでした。FacebookとYouTubeは今年から報告を開始しており、今後も報告を継続するよう奨励されるべきです。
モデレーションの最低基準。モデレーションを特定の方法で行うことを義務付けることなく、最悪のコンテンツに対する最低基準、最小応答時間、または救済や異議申し立てのための義務的なメカニズムを定めることで、プラットフォーム間の責任と平等性の基本的なレベルを確立できる可能性がある。
ベストプラクティスの共有。規制当局は、独占禁止法上の懸念を生じさせることなく、プラットフォームがコンテンツモデレーションに関するベストプラクティスを共有するための手段を提供することができます。業界関係者と協議しながら、外部の専門家を招き、ベストプラクティスを策定することも可能です。
公的オンブズマン。大手プラットフォームのほとんどは、ポリシー変更を発表したり、世論の論争に対応したりする際に、企業ブログを通じて一般市民に訴えかけています。しかし、これはプラットフォーム独自の判断によるものであり、一般市民の反応を反映させる余地はほとんどありません。各プラットフォームには、一般市民の懸念に対応し、それを社内のポリシー担当者に伝える公的オンブズマンを設置することが義務付けられるかもしれません。あるいは、単一の「ソーシャルメディア評議会」が一般市民からの苦情に対応し、プラットフォームに説明責任を求めることも可能です。
組織やデジタルリテラシープログラムへの財政支援。Twitterのような大手プラットフォームは、非営利団体に助言やモデレーションの一部実施を依頼するだけでなく、一部のユーザーが遭遇する被害による社会的・感情的なコストの軽減にも取り組んでいます。デジタルリテラシープログラムは、ユーザーがオンラインでの嫌がらせ、ヘイトスピーチ、誤情報に対処できるよう支援します。米国法典230条のセーフハーバー条項の適用を受けるには、プラットフォームはこれらの非営利団体への資金援助が必要になる可能性があります。
専門家諮問委員会。政府機関による規制監督を担うことなく、規制当局、専門家、学者、活動家からなる一流の委員会にプラットフォームとそのデータへのアクセスを許可し、プラットフォームの内部事情を公表することなくコンテンツのモデレーションを監督することができる。
規制当局による助言的監督。政府の規制機関は、主要プラットフォームにおけるコンテンツモデレーション手続きについて協議し、レビューを行うことが可能である。手続きに焦点を当てることで、このような監督は政治的見解を押し付けるような印象を与えることなく、コンテンツモデレーションにおけるより体系的な問題に焦点を当てることができる。
モデレーターの労働保護。大規模プラットフォームにおけるコンテンツモデレーションは、社内または第三者の派遣サービスを通じて契約された、いわゆるクラウドワーカーに依存しています。ガイドラインは、これらの労働者に対し、健康保険、雇用主による搾取に対する保証、そしてそれに伴う可能性のある精神的ダメージへのより一層の配慮といった基本的な労働保護を保証することができます。
資格のある研究者とモデレーションデータを共有する義務。セーフハーバー特権には、資格のある研究者がプラットフォームのモデレーションデータにアクセスするための合理的なメカニズムを構築する義務が伴う可能性があります。これにより、プラットフォームが考えつかない、あるいは答えたくない質問を調査できるようになります。Facebookと社会科学研究会議の新たな提携はまだ詳細を詰めていませんが、このモデルの何らかのバージョンがすべてのプラットフォームに拡大される可能性があります。
データのポータビリティ。ソーシャルメディア企業は、ユーザーのプロフィールや好みをプラットフォーム間で相互運用可能にすることに抵抗してきました。しかし、ブロックされたユーザーやフラグが付けられたコンテンツなどのモデレーションデータは、複数のプラットフォームに適用できるようにポータビリティを確保できます。
監査。モデレーションプロセスの完全な透明性を要求せずに、プラットフォームは研究者、ジャーナリスト、さらにはユーザーがモデレーションプロセスの独自の監査を実施し、実際のルールをよりよく理解できるようなメカニズムを組み込むことができます。
プラットフォームの社会的責任について、徹底した公的な議論が切実に必要です。この議論は既に始まっていますが、あまりにも頻繁に、第230条の擁護者と、それがもたらすかもしれない危害を懸念する人々の間で足かせになっています。この法律が見直されるまで、ソーシャルメディアプラットフォームは、自らのサイトを必要に応じて監視する権利は享受するものの、責任を負うことはないでしょう。
WIREDのその他の素晴らしい記事
- フォトエッセイ:液体窒素を通して永遠の命を求めて
- 究極のバーガーボットを作るミッション
- あらゆる予算に最適なタブレット
- 中国はもはや世界のプラスチック問題を解決できない
- D&Dをほぼ台無しにした秘密の刺激的なモジュール
- もっと知りたいですか?毎日のニュースレターに登録して、最新の素晴らしい記事を見逃さないでください。