Googleのオートコンプリート候補は依然として人種差別的、性差別的、そして科学否定的である

Googleのオートコンプリート候補は依然として人種差別的、性差別的、そして科学否定的である

2016年12月、Googleはオートコンプリート機能の厄介な不具合を修正したと発表した。ユーザーが「ユダヤ人は?」というフレーズを入力すると、Googleは自動的に「ユダヤ人は邪悪か?」という質問を提案していたのだ。

グーグルのニュース担当副社長リチャード・ギングラス氏は木曜日、ワシントンでの公聴会でこの問題について問われ、英国議会の議員らに対し「われわれのアルゴリズムが完璧だと信じたいが、決してそうなるとは思っていない」と語った。

実際、「ユダヤ人は悪人か?」という質問が削除されてからほぼ1年が経った今でも、Google検索は性別、人種、宗教、アドルフ・ヒトラーに関する検索に対して、ひどいオートコンプリート候補を次々と表示しています。Googleは、特に20億人が情報源として頼りにしているプラ​​ットフォームにおいて、不快で潜在的に危険な検索結果を効果的に管理できていないようです。

2016年に「ユダヤ人は悪か」という提言を報じたジャーナリスト、キャロル・キャドワラダー氏と同様に、私も「イスラム主義者は」「黒人は」「ヒトラーは」「フェミニストは」といった検索ワードを試してみて、ある種の不快感を覚えました。結果はさらにひどいものでした。(ちなみに、以下の検索はすべてシークレットウィンドウで行い、同僚にも同じ操作をさせました。)

「イスラム主義者は」という語句に対して、Google は実際には「イスラム主義者は私たちの友人ではない」または「イスラム主義者は邪悪だ」と検索するとよいと提案しました。

画像にはテキストが含まれている可能性があります

グーグル

「黒人は」という語句に対して、Google は私に「黒人は抑圧されていない」と検索するように促した。

画像にはテキストページホームデコレーションと単語が含まれている可能性があります

グーグル

「ヒトラーは」という語句は、たとえば「ヒトラーは私のヒーローです」と自動的に補完されます。

画像にはテキストページと単語が含まれている場合があります

グーグル

そして、「フェミニストは」という言葉は、「フェミニストは性差別主義者だ」という示唆を引き起こした。

画像にはテキストとページが含まれている場合があります

グーグル

リストはまだまだ続きます。「白人至上主義は」と入力すると、最初の検索結果は「白人至上主義は良い」です。「黒人の命は」と入力すると、Googleは「黒人の命は」というヘイトグループを提案します。「気候変動は」と検索すると、気候変動否定論者向けの幅広い検索結果が表示されます。

画像にはテキストが含まれている可能性があります

グーグル

Googleは声明の中で、上記の検索プロンプトのうち、特にポリシーに違反しているものの一部を削除すると述べた。広報担当者は、「私たちは常に検索結果の品質向上に努めており、昨年、ユーザーが不正確または不快だと感じたオートコンプリートの結果を報告できる機能を追加しました」と付け加えた。Googleユーザーが予測結果を報告できるリンクは、オートコンプリートリストの下部に小さな灰色の文字で表示される。

同社はどの検索を削除したかについてはコメントを控えたが、月曜日までに迅速な監査により、Googleが「イスラム主義者は悪だ」「白人至上主義は善だ」「ヒトラーは私のヒーローだ」「ヒトラーは私の神だ」といった予測を削除したことが明らかになった。WIREDがフラグ付けした残りの予測は、同社のポリシーに違反していないようで、現在も表示されている。編集された予測でさえ、完璧とは程遠い。例えば、「イスラム主義者はテロリストだ」「白人至上主義は正しい」といった予測は依然として有効だ

もしここに明るい兆しがあるとすれば、こうした検索で表示されるウェブページそのものは、そこへ誘導する誘導リンクほど恥ずべきものではないことが多いということだ。例えば、「Black Lives Matterはヘイトグループ」という検索でトップに表示されるのは、南部貧困法律センター(SPL)によるリンクで、同センターがBlack Lives Matterをヘイトグループと見なさない理由が説明されている。しかし、必ずしもそうではない。「ヒトラーは私のヒーロー」という検索では、「ヒトラーが善人だった10の理由」といった見出しが出てくる。これは、キャドワラダー氏が1年以上前に指摘した多くのページの一つだ。

これらのオートコンプリート候補は、Googleによってハードコードされているわけではありません。Googleがインターネット上のコンテンツ全体をアルゴリズムでスキャンし、一般的な用語を検索するユーザーが具体的に何を知りたいかを評価した結果です。「他のユーザーが検索した内容に基づいて候補を提供しています」とギングラス氏は木曜日の公聴会で述べました。「これは日々変化する、生き生きとした情報源です。」そして、明らかに、多くの場合、状況は悪化しています。

もしオートコンプリートが人々の検索内容のみを反映するものだとしたら、「全く道徳的根拠がない」と、ユタ大学でデータサイエンスの倫理を教えるスレシュ・ベンカタスブラマニアン氏は言う。しかし、Googleは問題視するオートコンプリート結果には制限を設けている。例えば、「ユダヤ人は?」に関連する候補を修正し、キャドワラダー氏が指摘した別の懸念事項も修正した。2016年には、「did the hol(ホロコーストは起こったか)」と入力するだけで「did the Holocaust happen(ホロコーストは起こったか)」という候補が表示され、ナチスのウェブサイト「Daily Stormer」へのリンクが表示されていた。しかし現在、オートコンプリートはそのような検索を補完しておらず、手動で入力すると、検索結果のトップに表示されるのはホロコースト博物館の「ホロコースト否定論との闘い」のページだ。

Googleがこうした調整を行う際、通常、アルゴリズムを変更し、修正が特定の検索カテゴリだけでなく、検索カテゴリ全体に適用されるようにします。「『この1つの問題を修正したので、次に進めます』と考えるほど無知な人はいないと思います」とGoogleの広報担当者は述べています。

しかし、グーグルがこのように介入するたびに、重要な疑問が浮かび上がるとベンカタスブラマニアン氏は言う。「彼らが間違っていると感じている原則とは何なのか?彼らはその原則を明確に説明できるのか?」

Googleはオートコンプリートの予測に関して明確なポリシーを設けています。暴力的、憎悪的、性的に露骨、または危険な予測は禁止されていますが、こうした表現はすぐに曖昧になる可能性があります。「ヒトラーは私のヒーローです」という予測は、ヒトラー自身がそうであったからといって、本質的に憎悪的と言えるのでしょうか?

Googleがこの問題に取り組む上での課題の一つは、同社が毎日目にする検索の15%が、これまで一度も検索されたことがないものだということです。それぞれの検索は、アルゴリズムにとって新たなパズルを提示します。そのパズルは必ずしもGoogleの期待通りに解けるとは限らないため、Googleはこうした不適切な検索結果が発生するたびに修正せざるを得なくなります。

ギングラス氏が述べたように、これらのアルゴリズムが完璧になることは決してないのは事実です。しかし、だからといってGoogleを免罪すべきではありません。これは自然発生的な現象ではなく、Google自身が作り出した問題なのです。

問題は、Googleが、発生した個々の問題にいちいち対処するのではなく、自らが作り出した問題を体系的に解決するために十分な対策を講じているかどうかだ。時価総額7000億ドル近く、従業員7万人以上、そして世界中に数千人のいわゆるレイターを抱えるGoogleの親会社Alphabetが、醜悪で偏向した検索結果を根絶するためにあらゆるリソースを投入しているとしたら、たった12回ほどの検索で、明らかに望ましくない検索結果が7件も見つかったのはなぜだろうか。不快なだけでなく、有益な情報も得られないからだ。白人至上主義について私が問うべきことはたくさんあるが、それが「良い」かどうかは、最も関連性の高い質問とは到底思えない。

「考えもしなかった考えが頭の中に押し付けられる世界が生まれてしまうのです」とベンカタスブラマニアン氏は言う。「オートコンプリートには確かに価値がありますが、その有用性がいつ弊害と衝突するかが問題になります。」

もちろん、オートコンプリートの問題は、アルファベットのアルゴリズム全般に影響を与える問題の延長線上にある。2015年、オバマ大統領の在任中、Googleマップで「n***a house(黒人の家)」と検索すると、ホワイトハウスに誘導された。11月には、BuzzFeed Newsが、同じくアルファベット傘下のYouTubeでユーザーが「how to have(セックスの仕方)」と検索すると、「how to have sex with your kids(子供とセックスする方法)」が提案されることを発見した。昨年ラスベガスで発生した銃乱射事件の後、Googleは検索結果に4chanのページを表示させ、無実の男性の名前を検索したユーザーに、その男性を犯人として仕立て上げた。

これらの自動システムが次にどんな地獄に遭遇するかを予測することは、アルファベットに限った問題ではありません。ProPublicaが明らかにしたように、昨年Facebookは広告主に対し、「ユダヤ人嫌い」といった言葉に興味のあるユーザーをターゲットにする権限を与えていました。Facebookがこのカテゴリーを意図的に作ったわけではなく、自動化ツールがユーザーが自身のプロフィールに書き込んだ情報を利用して、全く新しいカテゴリーを作成していたのです。

これらのアルゴリズムは独自の価値観を持っていないことを覚えておくことが重要です。何が不快なのか、ヒトラーが大量虐殺の狂信者だったのかは、アルゴリズムには分かりません。アルゴリズムが制約を受けるのは、Google検索を利用する人間から得た情報と、Google検索を構築する人間がアルゴリズムに課す制約だけです。

Googleは検索結果を狭い価値観に基づいて監視していますが、真実の裁定者というよりは、公平な立場を自らに求めています。白人至上主義や黒人の命が大切といった問題についてGoogleが立場を明確にしたくないのであれば、そうする必要はありません。しかし、人々に積極的にそうした考えを促すことで、Googleは既に立場を明確にしています。

1更新 午前 10 時 59 分 (米国東部標準時) 2018 年 2 月 12 日 このストーリーは、Google がオートコンプリート予測に加えた変更を含めるように更新されました。

私たちの悪いインターネット

  • Googleマップが人種差別的だったのは、インターネットが人種差別的だからだ
  • Facebookの有害な広告問題を解決する唯一の方法は、Facebookを破壊することだ
  • そして、ラスベガス銃乱射事件のような悲劇を受けて、あらゆるプラットフォームはフェイクニュースという深刻な問題を抱えている。