ロボットが人種差別主義者になるのを防ぐ方法

ロボットが人種差別主義者になるのを防ぐ方法

1940年代、社会学者のケネス・クラークとメイミー・クラークは、白人と黒人の人形を幼い子供たちの前に置き、「見た目が悪い」人形や「色がきれい」な人形を選ぶように指示しました。この人形テストは、アメリカにおける黒人の子供たちの自尊心に対する、人種隔離と不平等な扱いの悪影響をより深く理解するために考案されました。NAACPの弁護士たちは、この結果を用いて、アメリカの学校における人種隔離撤廃を支持する主張を成功させました。現在、AI研究者たちは、ロボットがすべての人を公平に扱うためには、同様のテストを受ける必要があるかもしれないと述べています。

研究者たちは、人形テストに着想を得た実験を、シミュレーション環境下でロボットアームに施した結果、この結論に至った。ロボットアームには、オンラインの写真やテキストから画像と単語を関連付けることを学習した視覚システムが搭載されていた。これは一部のロボット工学者が採用している手法であり、近年のAI生成アートの飛躍的な進歩の基盤にもなっている。ロボットは、アジア人、黒人、ラテン系、白人と自認する男女のパスポート写真が飾られた立方体を扱った。ロボットは、「犯罪者ブロック」や「主婦ブロック」といった人物を表す言葉を使って、異なる立方体を拾うように指示された。

その仮想世界での130万回以上の試行から、歴史的な性差別と人種差別を再現する明確なパターンが浮かび上がった。ただし、ブロックに描かれた人物には説明文やマーカーが付けられていなかった。「犯罪者のブロック」を拾うように指示されたとき、ロボットは黒人男性の写真が描かれたブロックを、他のグループの人物よりも10パーセント多く選択した。ロボットアームは、「医者」を尋ねられたとき、男性よりも女性の写真が描かれたブロックを選択する可能性が大幅に低く、白人男性の画像が描かれたブロックを「人物のブロック」として識別する可能性は、どの人種的背景を持つ女性よりも高かった。すべての試行を通じて、黒人女性の顔が描かれたキューブがロボットによって選択され配置される頻度は、黒人男性や白人女性の顔が描かれたキューブよりも低かった。

この研究に携わったワシントン大学の研究者ウィリー・アグニュー氏は、このようなデモンストレーションはロボット工学分野への警鐘となるはずだと語る。ロボット工学分野は、コンピュータービジョンが監視に利用されているように、危害を加える存在になることを避ける機会を持っているのだ。

その機会を得るには、ロボットをテストする新たな方法を考案し、オンライン上の膨大なテキストや画像で訓練された、いわゆる事前学習済みモデルの使用に疑問を投げかける必要があるかもしれないと彼は言う。事前学習済みモデルは、テキストやアートを生成する際にバイアスを永続化させることが知られている。研究者たちは、ウェブデータはAIモデルの訓練に多くの材料を提供することで、アルゴリズムを強化できることを示している。グーグルは今週、ウェブからスクレイピングしたテキストを使って自然言語の指示を理解できるロボットを披露した。しかし、研究者たちは、事前学習済みモデルが特定の集団に対する好ましくない差別パターンを反映し、あるいは増幅させることさえあることも示している。インターネットは世界を歪めた鏡のように映し出しているのだ。

「インターネットから取得したデータだけで訓練されたモデルを使用しているため、ロボットには偏りが生じています」とアグニュー氏は言う。「ロボットは非常に具体的で有害なステレオタイプを持っているのです。」アグニュー氏と、ジョージア工科大学、ジョンズ・ホプキンス大学、ドイツのミュンヘン工科大学の共著者らは、韓国ソウルで開催された「公平性、説明責任、透明性に関する国際会議」で最近発表された「ロボットは悪質なステレオタイプを植え付ける」と題した論文で、この研究結果を説明した。

近年、偏向アルゴリズムは、警察などの分野で人権侵害を引き起こしているとして、厳しい監視の対象となっています。警察では、顔認識によって米国、中国、その他の国々で無実の人々が自由を奪われました。金融分野では、ソフトウェアが不当に信用を拒否する可能性があります。ロボットの偏向アルゴリズムは、機械が物理的な動作を行うことができるため、より深刻な問題を引き起こす可能性があります。先月、チェスの駒を取ろうとしたロボットアームが、対戦相手の子供の指を挟んで骨折させるという事件が発生しました。

アグニュー氏と研究仲間は、仮想ロボットアーム実験におけるバイアスの原因は、スタートアップ企業OpenAIが2021年にリリースしたオープンソースAIソフトウェア「CLIP」にあると考えている。CLIPは、ウェブから収集した数百万枚の画像とテキストキャプションを用いて学習された。このソフトウェアは、シミュレーションロボット実験で使用された「CLIPPort」と呼ばれるロボット用ソフトウェアをはじめ、多くのAI研究プロジェクトで使用されている。しかし、CLIPのテストでは、黒人や女性を含む集団に対する否定的なバイアスが見つかっている。CLIPはOpenAIの画像生成システム「Dall-E 2」の構成要素でもあり、このシステムでは不快な人物画像が生成されることが確認されている。

CLIPは差別的な結果をもたらしてきた歴史があるにもかかわらず、研究者たちはこのモデルをロボットの訓練に使用しており、この手法は今後さらに普及する可能性があります。AIモデルを作成するエンジニアは、ゼロから始めるのではなく、Webデータで学習済みの事前学習済みモデルから始め、その後、独自のデータを用いて特定のタスクに合わせてカスタマイズすることがよくあります。

アグニュー氏と共著者らは、偏見のある機械の蔓延を防ぐためのいくつかの方法を提案している。例えば、ロボット部品のコストを下げて機械製造の人材プールを拡大すること、医療専門家に発行される資格と同等の資格をロボット工学の実践に義務付けること、あるいは成功の定義を変えることなどが挙げられる。

彼らはまた、人の外見が性格や感情といった内面的な特徴を確実に表すという、もはや信用できない考えである人相学の終焉を訴えている。近年の機械視覚の進歩は、アルゴリズムによって人が同性愛者か、犯罪者か、労働者として適格か、あるいはEUの国境検問所で嘘をついているかを検知できるといった、新たな虚偽の主張を生み出している。アグニュー氏は同じ会議で発表した別の研究論文の共著者であり、機械学習の研究論文のうち、AIプロジェクトの潜在的な悪影響について検討しているものはわずか1%に過ぎないことが明らかになった。

アグニュー氏と彼の同僚たちの研究結果は衝撃的かもしれないが、ロボット産業を変えようと何年も努力してきたロボット研究者にとっては驚くことではない。

米国防総省の重要技術担当副最高技術責任者(CTO)メイナード・ホリデイ氏は、ロボットが黒人男性の画像は犯罪者である可能性が高いと判断したことを知って、南アフリカのアパルトヘイト博物館を最近訪れたときのことを思い出したという。同博物館では、人の肌の色や鼻の長さなどに注目することで白人至上主義を支えてきたカースト制度の遺産を目にしたという。

バーチャルロボットテストの結果は、AIシステムを構築し、AIモデルの訓練に使用するデータセットを収集する人材が多様なバックグラウンドを持つ人材で構成されることの必要性を物語っていると、ホリデイ氏は述べた。「テーブルに着いていないなら、メニューに載っていることになる」とホリデイ氏は言う。

ホリデイ氏は2017年、機械学習におけるバイアスの解決には多様性のあるチームの雇用が必要であり、技術的な手段だけでは解決できないと警告するRANDレポートに寄稿しました。2020年には、ロボット業界における黒人やその他のマイノリティの存在感を高めるための非営利団体「Black in Robotics」の設立に尽力しました。彼は当時提唱したアルゴリズムの権利章典の2つの原則が、バイアスのあるロボットの導入リスクを軽減できると考えています。1つは、アルゴリズムが人々に影響を及ぼす重大な決定を下す際に、人々にその旨を知らせる情報開示を義務付けることです。もう1つは、人々にそのような決定を検証または異議申し立てする権利を与えることです。ホワイトハウス科学技術政策局は現在、AI権利章典を策定中です。

黒人ロボット工学者の中には、自動化された機械に人種差別が組み込まれることへの懸念は、工学の専門知識と個人的な経験が混ざった結果だと語る人もいる。

テレンス・サザン氏はデトロイトで育ち、現在はダラスに住み、トレーラーメーカーATWでロボットのメンテナンスを行っています。ロボット業界に参入するにあたって、あるいはその存在を知ることさえ困難だったと、サザン氏は振り返ります。「両親はゼネラルモーターズで働いていましたが、『宇宙家族ジェットソン』や『スター・ウォーズ』以外では、ロボットが何ができるかを説明できませんでした」とサザン氏は言います。大学を卒業した当時、ロボット関連企業で自分のような顔をした人は一人もいませんでした。そして、それ以来、状況はほとんど変わっていないと考えています。それが、彼がロボット業界での仕事に就きたい若者を指導する理由の一つです。

サザン氏は、人種差別的なロボットの配備を完全に防ぐのは遅すぎると考えているが、高品質のデータセットの収集や、AIシステムを構築する企業による虚偽の主張に対する独立した第三者による評価によって、その規模を縮小できると考えている。

業界団体シリコンバレー・ロボティクスのマネージングディレクターであり、世界中に1,700人以上の会員を擁するウィメン・イン・ロボティクスの会長でもあるアンドラ・キー氏も、人種差別的なロボット実験の結果は驚くべきものではないと考えている。ロボットが世界を移動するために必要なシステムの組み合わせは、「あらゆる問題が起こりうる大きなサラダ」のようなものだと彼女は述べた。

キー氏は既に、電気電子学会(IEEE)などの標準化団体に対し、ロボットに性別や民族性がないことを義務付ける規則を制定するよう働きかける計画を立てていた。新型コロナウイルス感染症のパンデミックの影響でロボットの導入率が上昇していることから、連邦政府がロボット登録簿を維持し、産業界による機械の導入状況を監視するという考えも支持している。

記事画像

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。

2021年後半、AIおよびロボット工学コミュニティから提起された懸念への対応もあって、IEEEは自律システムに関する新たな透明性標準を承認しました。この標準は、企業がロボットがすべての人に公平に接するよう促すのに役立つ可能性があります。この標準では、自律システムが自らの行動や決定の理由をユーザーに正直に伝えることが求められます。しかし、標準設定の専門家団体には限界があります。2020年には、計算機学会(ACM)の技術政策委員会が企業や政府に対し、顔認識技術の利用を停止するよう要請しましたが、この要請はほとんど無視されました。

ブラック・イン・ロボティクスの全国ディレクター、カルロッタ・ベリー氏は、先月チェスロボットが子供の指を骨折させたというニュースを聞いた時、「チェスの駒と子供の指の違いも認識できないロボットが、プライムタイムで活躍できると誰が思っただろうか?」と最初に思ったという。ベリー氏はインディアナ州ローズ・ハルマン工科大学のロボット工学プログラムの共同ディレクターであり、機械学習におけるバイアス軽減に関する近日刊行予定の教科書の編集者でもある。性差別的・人種差別的な機械の導入を防ぐ解決策の一つは、新しいシステムを一般公開する前に、共通の評価方法を確立することだと考えている。

AI時代を迎え、エンジニアや研究者が競って新しい研究成果を発表する中、ベリー氏はロボット開発者が自己管理や安全機能の追加を行えるかどうかに懐疑的だ。彼女は、ユーザーテストをより重視すべきだと考えている。

「研究室の研究者たちは、常に木を見て森を見ず、問題に気づかないのではないかと思います」とベリー氏は言う。AIシステムの設計者が利用できる計算能力は、何を使って何を作るべきか、あるいは作るべきでないかを慎重に検討する能力を超えているのだろうか?「これは難しい質問です」とベリー氏は言う。「しかし、答えを出さなければならない質問です。なぜなら、それをしないことのコストはあまりにも大きいからです」