昨年のある日、仕事中、ラデ・オバメヒンティは黒人に問題のあるアルゴリズムに遭遇した。
Facebookのプログラムマネージャーは、同社のビデオチャットデバイス「Portal」のプロトタイプのテストに協力していた。このデバイスは、コンピュータービジョンを使って話している人物を識別し、ズームインする。しかし、黒人のオバメヒンティ氏がフレンチトーストの朝食を熱心に説明していたとき、デバイスは彼女を無視し、同僚の白人男性に焦点を合わせた。
オバメヒンティ氏は水曜日、フェイスブックの年次開発者会議でこの経験を語った。その前日、CEOのマーク・ザッカーバーグ氏は、同社の多くの製品のプライバシーがさらに強化されると述べた。
フェイスブックの最高技術責任者マイク・シュローファー氏が基調講演を行ったカンファレンス2日目は、より落ち着いた雰囲気だった。シュローファー氏、オバメヒンティ氏、そして他の技術リーダーたちは、新たな偏見や問題を生み出すことなく、テクノロジー、特に人工知能を活用して自社製品を保護、あるいは強化していくことの難しさについて考察した。「単純な答えはありません」とシュローファー氏は述べた。
シュレーファー氏とザッカーバーグ氏は、Facebookの規模において、人間関係のデジタル化に伴う予期せぬ結果を改善するにはAIが不可欠だと述べている。しかし、他の破壊的技術と同様に、AIは予測不可能な結果をもたらすと、FacebookのAI担当ディレクター、ホアキン・キャンデラ氏は水曜日遅くに述べた。「予見することは不可能だ」と彼は述べた。
オバメヒンティ氏が語ったアルゴリズムによる差別の体験は、FacebookがAIが生み出す問題に対処するために、いかにして新たなツールやプロセスを考案しなければならなかったかを示している。彼女は、プロトタイプのポータルで無視されたことが、Facebookの複数の製品開発グループで採用されている新たな「インクルーシブAIのためのプロセス」の開発を促したと述べている。
これには、ポータルの視覚システムの作成に使用されたデータにおける人種的および性別によるバイアスと、システムのパフォーマンスを測定することが含まれていました。彼女は、女性や肌の色が濃い人がトレーニングデータに過小評価されており、プレリリース版ではこれらのグループの認識精度が低いことを発見しました。

フェイスブックのプログラムマネージャー、ラデ・オバメヒンティ氏は、同社のビデオチャットデバイス「Portal」のプロトタイプに、肌の色が濃い人の認識に問題があることを発見した。
フェイスブック最近、多くのAI研究者が、AIシステムがより重要かつ個人的な役割を担うようになるにつれて、偏向したAIシステムのリスクについて警鐘を鳴らしています。2015年には、Googleの写真整理サービスが一部の黒人の写真を「ゴリラ」とタグ付けしたことを受け、同社はゴリラ、サル、チンパンジーを識別できないようにする措置をとりました。
オバメヒンティ氏は、自身を冷遇したシステムに対し、より穏健な解決策を見つけ、Portalの出荷前に問題点を改善できたと述べた。彼女は、改訂版Portalが男女3種類の肌色の認識率を90%以上(Facebookの目標精度)に向上させたことを示すグラフを示した。ただし、女性と最も肌の色が濃い色では、依然として認識率が低い。
Facebookの拡張現実(AR)写真フィルターがあらゆる人に同じように機能するかどうかを確認するために、同様のプロセスが現在使用されています。アルゴリズムはより強力になりましたが、慎重な指示が必要です。「AIと人間が出会うとき、疎外されるリスクが内在しています」とオバメヒンティ氏は述べました。
フェイスブックのAI担当ディレクター、キャンデラ氏は水曜日、フェイスブックが誤情報と戦うためにAIを使用するにあたって、その技術が不公平を生み出さないようにエンジニアが注意する必要もあると語った。
同社は、インドで1ヶ月にわたる総選挙期間中、政治的な誤情報を拡散している可能性のある投稿を特定するコンテンツフィルタリングシステムを導入した。このシステムは投稿をハイライト表示し、人間による確認を促し、インド国内の多くの言語のうち複数の言語で運用されている。キャンデラ氏によると、Facebookのガイドラインが公平に適用されるよう、エンジニアたちはシステムの精度を言語間で慎重に比較しているという。
Facebookが、一部ユーザーに対し、裏付けとなる証拠や反証となる証拠の特定作業をクラウドソーシングすることで、フェイクニュースをより迅速にフラグ付けできるかどうかを検証するプロジェクトでも、同様の懸念が浮上している。キャンデラ氏によると、AIにおけるバイアスや関連問題に取り組むチームが、特定の投稿を審査するボランティアのプールが、単一の地域やコミュニティからではなく、多様な見解を持つようにする方法の検討に協力しているという。
FacebookのAI専門家たちは、技術の性能向上に伴い、公平なパフォーマンスを実現するための課題の一部が軽減されることを期待している。同社CTOのシュローファー氏は、画像やテキストを処理するFacebookのシステムが少ない学習データで高い精度を達成できるようになった研究成果を強調した。しかし、同氏はFacebookがルール違反コンテンツのフラグ付け能力を向上させたことを示す具体的な数値は明らかにせず、昨年11月に発表した数値を繰り返した。
キャンデラ氏は、AIの進歩と、AIシステムの欠陥を明らかにし測定するためのツールの開発だけでは、Facebookの問題は解決できないことを認めた。Facebookのエンジニアとリーダーたちが正しい行動をとる必要がある。「ツールは確かに必要ですが、それだけでは十分ではありません。公平性はプロセスだからです」と彼は述べた。
WIREDのその他の素晴らしい記事
- 「誰かを殺したいなら、私たちが適任です」
- 最高のスピードクライマーは、この動きで壁を駆け上がる
- オープンソースソフトウェアについて知っておくべきことすべて
- キティホーク、空飛ぶ車、そして「3D化」の課題
- トリスタン・ハリス氏は「人間の格下げ」と戦うことを誓う
- 🏃🏽♀️ 健康になるための最高のツールをお探しですか?ギアチームが選んだ最高のフィットネストラッカー、ランニングギア(シューズとソックスを含む)、最高のヘッドフォンをご覧ください。
- 📩 毎週配信されるBackchannelニュースレターで、さらに多くの内部情報を入手しましょう