イーロン・マスクのTwitterでのセックスで利益を得る無謀な計画

イーロン・マスクのTwitterでのセックスで利益を得る無謀な計画

アダルトコンテンツを収益化する計画は、ビジネス面でも社会面でも理にかなっているかもしれない。しかし、実際にはTwitterはそれを実現できないだろう。

スポットライトを浴びた赤い背景にお金

写真:ティム・ロバーツ/ゲッティイメージズ

先週、ワシントン・ポスト紙は、イーロン・マスク氏がTwitter上のアダルトコンテンツを収益化する製品を迅速に開発する計画があると報じ、同氏は土曜日の午後にこれを事実上認めた。念のため言っておくと、マスク氏のこの計画(地球上で最も裕福な人物による最新の一攫千金の計画)は、性労働者の支援とは全く関係がない。性労働やクィアの人々をめぐる監視が厳しさを増す中で、アダルトコンテンツを拡大するという選択はリスクを伴う。特に、マスク氏がTwitter上で性労働者と不釣り合いに重複するトランスジェンダーの人々への保護を撤廃する計画があるとの報道がある中ではなおさらだ。

収益化への動きは、避難所を破壊する恐れもある。2018年4月、トランプ大統領が「州と被害者によるオンライン性的人身売買対策法(FOSTA)」に署名する3日前に、米連邦捜査局(FBI)がBackpageを押収して以来、Twitterはセックスワーカーを容認する唯一の主要ソーシャルメディアプラットフォームとなった。直接的な金銭的報酬がないとしても、Twitterは長年にわたり、ますます清教徒化が進むデジタル環境において、セックスワーカー(アダルトコンテンツの制作者と対面でサービスを提供する者)の安全な避難場所となってきた。しかし、収益化を成功させるためには、Twitterはコンテンツモデレーションの慣行を根本的に見直し、強化する必要がある。これは、マスク氏が「言論の自由」を守ると誓ったこととは全く相反する。

より可能性が高いのは、収益化が性急に行われ、アダルトコンテンツとモデレーションの複雑さに敏感な社内チームの一つが提起した問題に対処することなく行われる可能性です。これは、金曜日をもって機械学習、倫理、透明性、説明責任(META)チームのようなチームが消滅したことが一因です。この動きは、セックスワーカー、特にトランスジェンダーのセックスワーカーをさらに危険にさらす恐れがあります。彼女たちは既に天文学的な暴力リスクにさらされており、反トランスジェンダー法が制定されるたびにそのリスクは高まり続けています。

セックスワーカーやクィアの成人は性的に逸脱しており、未成年者にとって脅威であるという道徳的パニックが高まる中、アダルトコンテンツを収益化するための下手な試みは、13歳の若者も歓迎する主流のソーシャルメディアプラットフォームに私たちの居場所はないとする考えに信憑性を与え、不安をさらに増幅させる可能性がある。そして、マスク氏のこのような動きは、サイト上のすべてのユーザーの体験を変える恐れがある。

同性愛嫌悪、トランスフォビア、娼婦嫌悪(性労働者に対する組織的な抑圧)が重なり合う多くの方法の 1 つは、私たち全員が子供に対する脅威とみなされていることです。オンラインでの性労働もこの偏見から逃れられません。今年初め、ケイシー・ニュートンとゾーイ・シファーは The Verge で、Twitter が「OnlyFans スタイル」のサブスクリプション プロジェクトを開発していたが、児童性的搾取マテリアル(CSEM、児童性的虐待マテリアルまたは CSAM と呼ばれることもある)への懸念により取り組みが妨げられていることを報告しました。レッド チームと呼ばれる社内研究者の部隊は、CSEM に対処するまでは Twitter がアダルト コンテンツの収益化(ACM)と題されたプロジェクトを安全に展開することはできないと判断しました。彼らは ACM が CSEM を悪化させると考えていたからです。このプロジェクトは 5 月に棚上げされ、マスクが Twitter を 440 億ドルで買収すると提案してからわずか数週間後でした。

レッドチームの調査結果は、性労働に関する2つの誤解にかかっている。1つ目は、性労働は人身売買とともに「性産業」を包含する連続体として存在しているということ、2つ目は、アダルトコンテンツのプラットフォームでは積極的なモデレーションポリシーが実施されていないということだ。

CSEMはインターネット上でほぼ普遍的であることは事実です。エクソダス・クライや全米性的搾取センター(NCOSE、旧称モラリティ・イン・メディア)といった宗教右派団体は、長年にわたり、その存在を棍棒としてインターネット上の性労働者の存在を掠め取ってきました。しかし、CSEMを特定したすべてのオンラインプラットフォームは、その調査結果を全米行方不明・搾取児童センター(NCMEC)に報告することが法律で義務付けられています。例えば、ニュートン氏とシファー氏は報告書の中で、「2019年、マーク・ザッカーバーグ氏はFacebookが安全機能に費やす金額がTwitterの年間売上高全体を上回ると自慢した」と述べています。

しかし、アダルトコンテンツが児童虐待と密接に関連しているという主張は、明らかに真実ではない。NCOSEはOnlyFansを「児童性的虐待コンテンツ、性的人身売買、レイプ動画、その他多くの犯罪」を助長していると具体的に名指ししているが、数字は異なる物語を物語っている。NCMECの最新の年次報告書によると、例えばPornHubは2021年に9,029件の児童性的虐待(CSEM)を報告しているが、これはTwitterの86,666件と比べると非常に少ない。Facebookは、潤沢な安全対策予算にもかかわらず、22,118,952件のCSEMを報告しており、これはPornHubの約2,500倍に相当します。OnlyFansはゼロ件の報告しかしていない。

そしてアダルトサイトは、CSEMの流通を防ぐためのコンテンツのモデレーションに最も気を配っている。アダルトコンテンツ制作者なら誰でも知っているように、クリップサイト(映画クリップ、ストリーミングチャンネル、ファンサイトなどを通じてアダルトコンテンツを収益化するオンラインプラットフォームの総称)にコンテンツをアップロードし、その売上金を得るには、本人確認と、最近では生体認証データの入力が求められる。OnlyFansのコンテンツも、モデル全員が認証済みであることを確認するため、アルゴリズムと人間によるモデレーションの両方を経る必要がある(OnlyFansは、コンテンツが公開される前に社内にコンテンツモデレーターを配置し、各コンテンツを審査している。これは、OnlyFansの唯一の収入源でもあるコンテンツ制作者を守ることに会社が力を入れているからでもある)。ダイレクトメッセージも厳重にモデレーションされており、OnlyFansが人身売買の重罪で起訴されるリスクにつながる可能性のある対面での会合への言及は、永久停止につながる可能性がある。

業界のベテランも認めているように、クリップサイトには厳格なコンテンツガイドラインがあり、FOSTA成立以降、販売できるコンテンツの種類とできないコンテンツの種類が制限されています。例えば、催眠術コンテンツは少なくとも2017年以降、クレジットカード会社が性的嗜好を「違法または不道徳」とみなし、そうしたコンテンツを許可するプラットフォームに対して収益化停止の脅しをかけ始めて以来、制限されています。Daily Dot紙のアナ・ヴァレンス氏が示唆するように、金融プラットフォームの不安は、チャージバックや、顧客が催眠術によってコンテンツやクリップに「強制的に」お金を使うよう「強要」されたという主張への懸念から生じていると考えられます。

その他の制限は、購入者の後悔よりも社会規範や法律に密接に関連しています。血液、針、そして合意に基づく不同意といった「不道徳」なフェチは、催眠術と並んで廃止されました。フェチモデルのソフィー・ラダーは、現在どのクリップサイトでどのフェチが許容されているかをリストアップしたGoogleドキュメントを頻繁に更新しています。例えば、血液は1つのチューブサイトを除くすべてのサイトで禁止または制限されています。

一方、 Twitterでは非常に露骨なアダルトコンテンツをスクロールして見てきましたが、ユーザーがセンシティブなメディアとしてフラグを立てれば、「体液」の描写は禁止されません。Twitterは「暴力的な性行為」を禁止していますが、そのポリシーはBDSMのような合意に基づく暴力ではなく、レイプや性的暴行にのみ適用されるようです。

Twitterはアダルトコンテンツを制限していません。なぜなら、アダルトコンテンツに関するガイドラインがないからです。全くありません。この記事を執筆時点では、合意に基づいて制作され、センシティブな内容として適切にフラグが付けられ、プロフィール写真やヘッダー写真といった公に見える場所に含まれていない限り、Twitter上でアダルトコンテンツを制限するポリシーはありません。(CSEMは定義上、成人向けではないため、「アダルトコンテンツ」には含めていません。)

Twitterは歴史的に、例えばMetaほど性労働者に対して敵対的ではありませんでしたが、あるTwitter社員が私に語ったように、性労働者に対しては「聞かない、言わない」というポリシーを維持しています。また、コンテンツポリシーがないにもかかわらず、Twitterは意図的かどうかは別として、アルゴリズムによってアダルトコンテンツを抑制しています。

現実的には、ソーシャルメディアや検索エンジンで使用されているほとんどの機械学習アルゴリズムの場合と同様、Twitterでさえ自社のアルゴリズムがどのように適用されているかを把握していない。機械学習アルゴリズムは、干渉を受けずにユーザーのバイアスを確立するユーザーアクティビティに基づいて自らを改良していく。その結果、いわゆるアルゴリズムバイアスが生じ、今回のケースでは、たとえ意図的でなくても、セックスワーカーに最も深刻な影響が及ぶ。すでに、セックスワーカーや活動家は、特定のユーザーやコンテンツを人為的に抑制する慣行であるシャドウバンの対象としてTwitterのアルゴリズムによってフラグ付けされる可能性が高い。さらに、Instagramのアルゴリズムがヌードを肌色のピクセルでフラグ付けするのと同様に、Twitterは、まだ「センシティブ」とマークされていない成人向けコンテンツをアルゴリズムで識別し、制限している。

このような背景から、マスク氏のアダルトコンテンツを収益化する計画は、ビジネス面でも社会面でも理論的には理にかなっていると言える。ビジネス面では、Twitterの収益増加につながる。社会面では、性労働者に対するアルゴリズムによる検閲を阻止し、理論上は性労働のスティグマを払拭できる可能性がある。ACM(成人向けコンテンツマーケティング)によってTwitterが「ポルノサイト」、あるいはさらに悪いことに「児童ポルノサイト」に変貌するのではないかという懸念は根拠がない。むしろ、アダルトコンテンツを適切に収益化することで、投稿前にCSEMを検出する安全策を強化し、TwitterにおけるCSEMの量を大幅に削減できる可能性がある。

しかし実際には、マスク氏は、CSEM がサイトに掲載されないようにコンテンツのモデレーションを強化するか(これは同氏が擁護する「言論の自由」と矛盾する)、あるいは最小限のモデレーションで表現の重要性を強調し、ダークウェブや非公開の Facebook グループの影に隠れている残酷なコンテンツの洪水を招き入れるかのいずれかを行う必要があるだろう。

TwitterがACMを導入した場合、おそらく選択を迫られることになるだろう。CSEMの投稿やアクセスを防ぐために、すべてのTwitterユーザーに年齢確認を義務付けるか、サブスクリプションサービスから収益を得るために、収益化されていないアダルトコンテンツを完全に禁止するかだ。いずれにせよ、あらゆる視覚メディアに対するアルゴリズムによる監視は必然的に強化されるだろう。

TwitterがOnlyFansに倣うなら、保護されていないアカウントでの収益化されていないヌード投稿は禁止される可能性が高い。その結果、アダルトコンテンツ制作者ではないものの、時折ヌードを投稿する人々(例えば、対面での性行為を行う性労働者や性教育者など)は、Twitterの利用を継続できるとしても、新しいポリシーに準拠するようにコンテンツを編集する必要が生じるだろう。

新たな課題が待ち受けている。セックスワーカーにとって最後の半公共のデジタル隠れ家としてのTwitterの機能は、新しいコンテンツを導入する前に、Twitterが既存のメディアを遡及的にモデレートするかどうかを決定する必要があることを意味する。これは、人間のモデレーターには単純に不可能な作業である。AIについては、すべての視覚的メディアをアルゴリズムでスキャンしてヌードを検出するのは簡単そうに思えるかもしれないが、このAIは、Instagramで明らかになったように、有色人種、肥満者、性教育者に対して悪名高い偏見を持っている。しかも、Instagramは創業以来、視覚的メディアをモデレートしてきたにもかかわらずである。対照的に、Twitterには10年以上分の素材を再評価する必要があるが、このような途方もない作業のためのテクノロジーを開発するには、マスク氏に数百万ドルの追加費用がかかるだけでなく、従業員に準備期間として与えたとされる2週間をはるかに超える時間もかかるだろう。

Twitterは、モデレーションプロセスを効率化するための基本的なアルゴリズムを導入できるかもしれない。しかし、大規模なコンテンツモデレーションを、特にTwitterのコンテンツモデレーションポリシーをめぐる厳しい監視体制を考慮すると、大規模な人間モデレーターチームなしに行うことは、いかなるリーダーシップの下でも、特に従業員の大半を解雇する計画があり、既にほぼ半数を削減したマスク氏の下では想像もできない。さらに、TwitterとMetaは、人間によるコンテンツモデレーションの責任の大部分を外部委託業者に委託しているため、コンテンツモデレーターは会社の福利厚生を受けることができず、マスク氏には長年にわたる労働法違反の経歴がある。

結局のところ、人間のモデレーターが不足し、個人情報の公開に関する最低限のポリシーしかなく、セックスワーカーを単なる「コンテンツ制作者」ではなく人間として保護することに関心がないマスク氏のツイッターには、アダルトコンテンツを責任を持って収益化するためのインフラも取り組みもまったくないのだ。

マスク氏がセックスワーカーをどう扱うかは、いつものように、彼がどのように方針を他のユーザーにも広げていくつもりなのかを垣間見せるものとなるだろう。結局のところ、私たちは周縁化され、使い捨てにされる存在であり、新しい政策や技術の理想的なテスト対象なのだ。今後数週間、数ヶ月は、私たち自身と互いを虐待から守る能力が試されることになるだろう。私たちにとって、生活と安全をめぐるこうした争いは目新しいものではない。しかし、マスク氏にとってこれは新たな地獄であり、労働者、規制当局、そして国民との泥沼に引きずり込まれる可能性が高い。私が懸念するのは、彼が既に敗北を覚悟しているこの馬鹿げた戦いで、私たちを犠牲にしようとしているということだ。彼の最新の策略がTwitterを存続させるかどうかに関わらず、Twitterを救うために流される血はセックスワーカーの血となるだろう。

オリビア・スノーは作家、教授、そしてドミナトリックスです。現在、UCLAの批判的インターネット研究センターの研究員として、性労働、テクノロジー、そして政策を研究しています。好きな言葉は「ノー」です。…続きを読む

続きを読む