
マンデル・ンガン/AFP/ゲッティイメージズ
フェイクニュースの拡散と影響力を解明する望みは、まだ遠い先のことのように思えます。数ヶ月にわたる調査を経て、この問題に関する最も詳細かつ包括的な研究の一つが、この問題は深刻であると簡潔に結論づけました。
「フェイクニュースへの露出を数えるのは、まるで遊園地の遊園地の入場者数を数えるようなものです」と、ノースイースタン大学の研究者で、画期的な新研究の共著者であるデビッド・レイザー氏は言う。「その本質は、フェイクニュースの重要性に対する認識を歪めようとすることです。」
Science誌に掲載されたこの研究では、1万6442件のTwitterアカウントと公開有権者登録記録が関連付けられました。ハーバード大学、バッファロー州立大学、ノースイースタン大学の研究者からなる研究チームは、誤情報の拡散が集中していることを発見しました。パネルの0.1%が、フェイクニュースのシェアの80%以上を占めていたのです。また、パネル参加者の大多数が依然として主流メディアに接していることも明らかになりました。
研究者たちは、2016年8月から10月までの期間にフォローしている人々のツイートを分析することで、各個人のニュースフィードの大まかな構成を明らかにした。この統計的効果をより正確に把握するため、例えばトミ・ラーレンのような人気右翼ブロガーのアカウントのツイートが6回閲覧された場合は、6回とカウントする。最終的に、人々を極左、左翼、中道、右翼、極右の5つのサブグループに分類した。また、5%の情報源が、これらの露出の50%以上を占めていることも判明した。
この研究では、フェイクニュースは出版社全体のレベルで定義された。「私たちの研究は、システムレベルの視点を取り入れています」と、この研究の共著者であるノースイースタン大学のネットワーク科学者、リサ・フリードランドは述べている。「フェイクニュースは、不適切な編集プロセスを持つ出版物によって増幅され、時には作られるので、そのような出版物の到達範囲を見ることは有用です。」ファクトチェッカー、ジャーナリスト、学者は、主に偽の情報を公開するウェブサイトのリストを作成し、研究者はそれを「黒」と分類した。欠陥のある編集プロセスを持つウェブサイトは「赤」と分類され、研究者が確信が持てないウェブサイトは「オレンジ」と分類された。オレンジ65件、赤64件、黒171件のフェイクニュースソースがデータに少なくとも1回は登場した。
「こうしたフェイクニュースサイトのリーチを把握するのは難しく、実際よりもはるかに広範囲に及んでいるように見せかける操作も行われている」とレイザー氏は言う。「過去の調査では、Twitterで共有されているコンテンツのほとんどはボットによるものだと示唆されているが、もしフェイクニュースにさらされているのが主にボットだとしたら、私たちは気にするべきなのだろうか?」
研究者は誤情報の定義に異なるアプローチを取ることが多く、その結果、矛盾する結果をもたらす論文が生まれることがあります。実際には、こうした論文はしばしば、誤情報という大きなシステムの一側面を明らかにしています。「Facebookのデータ、Twitterのデータ、アンケート調査などを用いた論文もあります。また、特定の記事がどのように拡散されているかを調べる論文もあります」とフリードランド氏は言います。「世の中には恐ろしいほど多くのフェイクニュースと、それを広める自動的な活動が存在していますが、私たちの知る限り、まだそれほど多くの人がフェイクニュースの罠に落ちているわけではありません。」
研究者たちはまた、フェイクニュースを共有する可能性が高いユーザーは、年齢が高く、男性で、より保守的である傾向があることも確認した。パネルの一部には、Twitterでの投稿や共有率が異常に高い「スーパーコンシューマー」や「スーパーシェアラー」が含まれていた。彼らは通常のユーザーとは一線を画す傾向があった。研究者たちは、彼らを「サイボーグ」、つまり部分的に自動化されているものの、大部分は人間によって操作されているアカウントだと示唆した。彼らは残りのパネルメンバーを評価するために、これらの個人を別にした。
2016年米国大統領選挙運動中の先月、一般ユーザーは平均して約204回、フェイクニュースソースに接触した可能性がある。個人のフィードにおけるフェイクニュースソースの平均割合は1.18%だが、左派と右派の間には十分に大きな差があることがわかった。「一般的に、人々が信頼できるジャーナリズムを得る方法は、誰を信頼するかを知ることです」とフリードランド氏は語る。「高品質でファクトチェックされたジャーナリズムを生み出すのは簡単ではありませんが、ウェブサイトを立ち上げ、他所からいくつかの記事をコピーし、いくつかの作り話を『報告』するのは簡単です。」右派の11%、極右の21%がフェイクニュースコンテンツを共有したのに対し、左派や中道では5%未満だった。
サンプルは代表的であると考えられていますが、この分析では、例えば激戦州の有権者を対象としたマイクロターゲティングとされるものなど、標的を絞った誤情報は考慮されていません。「これらの推定値は、フェイクニュースが間接的に人々や選挙に影響を与えていないことを意味するものではありません」と、ケンブリッジ大学心理学部で誤情報の拡散を研究しているサンダー・ファン・デル・リンデン教授は述べています。「ブレグジットのような重要な選挙が数パーセントの差で決まる場合、たとえ少数の過剰に活動的なフェイクニュース拡散者であっても、民主主義のプロセスを損なう可能性があります。」
この研究における人間の接触回数の計測方法は、ボットによるフェイクニュースへの接触回数を測定していない点で、先行研究とは異なります。しかし、この分析はTwitter上で実施されており、結果を他のネットワークに一般化できないため、この研究では、例えば右翼系のFacebookグループやフォーラムなどで数回共有された後、誤情報がどのように拡散するかを評価することはできません。
この調査では、ツイートへの潜在的な露出は測定していますが、エンゲージメント(「いいね」やリツイート以外)は測定していません。そのため、人々は意地悪で、または他のみんながフォローしているからという理由で主流のニュース メディアをフォローしていたものの、そのコンテンツにエンゲージメントしていなかった可能性があります(Twitter のニュース フィードは変わりやすい場合があります)。
「私たちは、この氾濫を発生源で食い止める努力をすべきです。その発生源には、私たちのリストに掲載されているドメイン、特に人気の高いドメインが含まれます」とフリードランド氏は述べている。論文では、特定のユーザーによる投稿に制限を設けることを提案しており、これにより、第三者がアカウントからの大量投稿にさらされるリスクも軽減されるだろう。「私たちの分析では、これによりフェイクニュースへの露出が減少することが示唆されています」とレイザー氏は述べている。
しかし、米国が次の選挙に向けて準備を進め、EUの有権者も5月に投票に行く中、偽情報やフェイクニュースがすぐに消え去る可能性は低い。
この記事はWIRED UKで最初に公開されました。