
ワイヤード
Googleのオートコンプリート検索ツールは、ホロコースト否定論を広めたり、白人至上主義を擁護したり、イスラム教徒は「悪」、ユダヤ人は「邪悪」、地球は実際には平面であるなどと示唆したりすることが、幾度となく指摘されてきました。しかし、このオートコンプリート機能が、私たちが見たい画像に利用されたらどうなるでしょうか?
2018年9月、Googleは画像検索にサジェスト機能を導入しました。これはいわば、視覚的な世界におけるオートコンプリートのようなものです。Google画像検索で「犬」と入力すると、検索バーのすぐ下に愛らしい子犬のカルーセルが表示され、パグ、ラブラドール、ピットブル、ロットワイラーなどの関連画像が提案されます。ここまでは、かわいい子犬ばかりです。
しかし、例えばハリウッド俳優などに興味の対象を変えると、Googleのアルゴリズムは少し不気味になります。男性を検索している場合、Googleの画像検索アルゴリズムは主に彼のキャリアに焦点を当てます。女性を検索している場合、Googleのアルゴリズムは彼女の体型に焦点を当てます。
例えば、Google画像検索でロバート・ダウニー・Jr.を検索すると、アルゴリズムによって生成された30個の関連検索語のうち、彼の容姿に関連するのはわずか4個、「ワークアウト」「ボディ」「ハンサム」「キュート」です。大半は彼が出演した映画や共演した俳優に関するものです。 「アベンジャーズ」の共演者であるスカーレット・ヨハンソンについても同じことをすると、Googleは彼女の容姿に基づいて、「お腹」から「体型」「大きい」「胸」まで、少なくとも14個の関連画像検索を推奨します。まさにアルゴリズム流の男性目線です。
この問題の規模を検証するため、興行収入上位60人の男性俳優と女性俳優についてGoogle画像検索を実施しました。ダウニー・Jr.とヨハンソンの場合と同様に、Googleが提示した外見に関する関連キーワードを収集しました。男性俳優30人については、Googleは身体的特徴に関する関連検索を合計82件提示しました。「体」「髪」「ワークアウト」が圧倒的な人気を誇っていました。
30人の女性俳優について、Googleは身体的特徴に関する関連検索を合計176件も提案しました。「へそ」「21歳」「おっと」「ビーチ」「水着」から「寸法」「太い」「太もも」「ポキ」まで、多岐にわたります。私たちが分析した上位60人の女性俳優と男性俳優の検索結果全体で、Googleのアルゴリズムは女性の身体的特徴に関する関連検索を男性の2倍以上提案していました。WIREDがこれらの結果をGoogleに報告した後、Googleは「太い」「おっと」「ポキ」の3つの検索候補を削除しました。
これは YouTube のオートコンプリート チャレンジのビジュアル版だ。オートコンプリート チャレンジでは、有名人に自分について最も Google 検索されている質問に答えてもらう。「エマ・ワトソンはフランス人ですか?」「エマ・ワトソンは結婚していますか?」「エマ・ワトソンはビーガンですか?」 – おわかりでしょう。重要なのは、これらのオートコンプリートの候補は自動的に生成されるものの、検索用語の人気度だけに基づいているわけではないという点です。実際、Google は長年にわたりオートコンプリートのレシピを微調整してきました。ある時点では、足フェチ攻撃を開始しました。しかし、Google の検索アルゴリズムが私たちが見たいものだけに関心がある場合、それは依然として客体化します。Google 画像検索でエマ・ワトソンを検索すると、アルゴリズムは、とりわけ「全身」を提案します。Google のキャメロン・ディアスの関連ビジュアル検索用語は、彼女の外見に基づいて 22 個あります。比較すると、マット・デイモンは 2 つあります。
「これらの画像検索の結果は、スカーレット・ヨハンソンに関するデータと、テキスト内での彼女の言及、画像のファイル名やタイトルの根本的な分布に基づいています」と、ワシントンD.C.のジョージ・ワシントン大学コンピューターサイエンス学部の助教授アイリン・カリスカン氏は述べている。同氏は、医者(ほぼ全員白人男性)、CEO(同様に男性で白人)、プロ意識の低い髪型(ほとんどが黒人女性)に関する、Google画像検索の偏見と差別に満ちた同様の、よりよく知られた例を指摘している。
このような検索結果は、現実世界のバイアスがGoogleのアルゴリズムに振り回され、吐き出されるフィードバックループを通された結果、生じた混乱した出力である。女性俳優にとって、「胸元の深いカット」や「ビーチ向き」の体型を好奇の目で見る報道は、Googleが最も重要で関連性が高いと考えるものの一因となっている。しかし、それが全てではない。
「これらの問題に対処するには、すべての人々を同じ数のデータポイントで代表し、データセットから歴史的な不公正を排除し、AI開発者の多様性を高め、AIを民主化することが必要となる長期的な取り組みが必要になる可能性があります」とカリスカン氏は述べている。一例を挙げると、Googleのグローバル技術部門の従業員の77%は男性だ。上級管理職に限れば、Googleの73%は男性だ。確かに、同社の検索アルゴリズムは、インターネットを利用する私たち人間の検索内容を反映している。しかし、それはGoogleのエンジニアによってハードコードされた制約や優先順位によっても形作られている。そして現在、そうしたエンジニアや主要な意思決定者の大多数は男性だ。
続きを読む: Googleの検索履歴を削除して追跡を停止する方法
「名誉を傷つける、あるいはセンシティブな可能性のある言葉を個人名と関連付ける予測は禁止しています。こうした予測を発見した場合は、速やかに削除するよう努めています」とGoogleの広報担当者は述べている。「私たちは、自社製品において潜在的に有害な認識を助長しないよう、強い責任を感じています。そのため、機械学習の公平性向上といった取り組みに引き続き投資していきます。」
これはGoogleに限った問題ではありません。アルゴリズムによるバイアスの問題は、現代を特徴づける技術的課題の一つとなるでしょう。2017年の研究で、バージニア大学の研究者たちは、画像認識ソフトウェアが使用するデータにジェンダーバイアスが見られることに気づきました。例えば、買い物や掃除の画像は女性に関連付けられていました。これらのデータセットで学習した機械学習ソフトウェアは、こうしたバイアスを繰り返すだけでなく、悪化させてしまいました。つまり、データ自体が女性に不利なバイアスを持っていたにもかかわらず、アルゴリズムによる解釈はさらにバイアスがかかったのです。つまり、悪いデータを入力すると、さらに悪いデータが出力されるのです。
この点において、Googleの検索結果が私たち自身の偏見を純粋に反映していると考えるのは間違いです。Googleはアルゴリズムを調整することで、好ましくない検索結果を非表示にすることができますし、実際にそうしています。Googleがテキストベースのオートコンプリート機能の広範な問題に対処する以前は、「did the hol(ホロコーストは起こったか)」と入力すると、「did the Holocaust happen(ホロコーストは起こったか)」という候補が表示され、ユーザーはナチスのウェブサイトに誘導されていました。現在、オートコンプリート機能はそのような候補を一切表示せず、同じキーワードを入力するとホロコースト否定論のWikipediaページや米国ホロコースト記念博物館に誘導されます。
Googleのアルゴリズムは、放っておくとホロコースト否定論を助長する結果となった。ナチスだからではなく、そうした見解が忌まわしいものだと認識していないからだ。そのため、Googleはアルゴリズムを調整せざるを得なかった。普段は公平な姿勢を装っている企業としては、これは価値観に基づいた興味深い動きだ。しかし、こうした公平さが人種差別的、性差別的であり、陰謀論、憎悪、分断の拡散を助長していると正当に指摘されたことで、Googleは行動を起こさざるを得なくなったのだ。
Google画像検索が女性セレブ、そして女性全般を客体化している点は、この問題のもう一つの側面です。「偏見、公平性、説明可能性、説明責任、そして透明性を実現するには、研究者、政策立案者、そして一般市民の努力が必要です」とカリスカン氏は言います。そして今、それは実現していません。セクハラ疑惑や報復文化をめぐる最近の騒動が示すように、Googleは自社の従業員間の不和に対処することさえ苦慮しており、ましてや自ら作り出した技術的な問題を認め、修正するという課題に取り組むことなど到底不可能です。
そして、こうした取り組みは、ほとんどの場合、事前対応的というよりは事後対応的です。その結果、Googleはこの問題に先手を打つことがほとんどありませんでした。オートコンプリート、そしてGoogle画像検索におけるアルゴリズムによる検索候補に関する問題は、Googleが早急にデータをクリーンアップする必要があることを示しています。Googleの不作為により、アルゴリズムによるエコーチェンバーが性差別的な見解を助長する危険性があります。アルゴリズムが私たちの生活のより多くの分野で活用されるようになるにつれ、こうした偏見を根絶することがますます急務となるでしょう。
Googleは公平であると主張している。同社のアルゴリズムは、私たちの世界を観察し、それを私たちに映し出すだけだ。しかし、アルゴリズムがどのように機能するか、つまり、どのようなデータで学習し、どのように解釈し、どのような結果を出力するかという点を監督しなければ、Googleの公平性の定義は理解しにくい。詳細に掘り下げてみると、同社の検索アルゴリズムは人種差別的および性差別的な見方を助長し、社会的な偏見を増幅させていることがわかる。女性有名人をGoogle画像検索で探すと、彼女たちはいやらしい視線を向けられる対象であるかのように感じられる一方で、男性有名人への関心は、彼らの体ではなく職業に集中しているようだ。これは、綿密な調査と透明性がなければ、アルゴリズムが私たちの世界観を歪めていることを示す、またしても例と言えるだろう。
反ワクチン派から白人至上主義者まで、Googleの検索アルゴリズムは、危険で異端的な見解を常に過度に重視してきました。しかし、問題はそれよりも広範で、はるかに微妙なものです。結局のところ、Googleが私たちに見せている世界、そしてそれが私たちをどのような存在に変えようとしているのか、私たちはまだ理解できていません。
この記事はWIRED UKで最初に公開されました。