正しく活用すれば、AIは警察活動をより公平にできる

正しく活用すれば、AIは警察活動をより公平にできる

スタンフォード大学のフェイフェイ・リー氏は、テクノロジーは私たちの価値観を反映した包括的な方法で開発されるべきだと言います。 

警察官のボディカメラ

写真:ジム・ワトソン/AFP/ゲッティイメージズ

10年前、スタンフォード大学のコンピュータサイエンス教授であるフェイフェイ・リー氏は、新世代の強力な人工知能アルゴリズムの威力を実証しました。彼女はImageNetを開発しました。これは、機械学習プログラムに入力できる膨大なラベル付き画像コレクションです。このプロセスは、学習に十分なデータがある場合、機械が人間の特定のスキルを驚くほど巧みに習得するのに役立ちました。

それ以来、AIプログラムは音声認識や言語翻訳から倉庫ロボットの操作、自動運転車の誘導に至るまで、ますます多くの有用なタスクを自ら学習してきました。しかし、AIアルゴリズムは、人種や性別による偏見を助長する可能性のある自動顔認識の手段として、より深刻な潜在能力も示しています。最近では、法執行機関における顔認識ソフトウェアの使用が非難を浴び、一部の企業は警察への販売を中止するに至っています。

フェイフェイ・リー

2018年のSXSWでのフェイフェイ・リー。写真:Hubert Vestil/Getty Images

リー氏自身もAIブームの浮き沈みを経験してきた。2017年、彼女はGoogleに入社し、自身の言葉で言うところの「テクノロジーの民主化」に貢献した。その後まもなく、Googleとリー氏自身は、「Maven」と呼ばれるプロジェクトを通じて軍にAIを提供するという論争に巻き込まれ、このプロジェクトを秘密にしようとした。

騒動から数ヶ月後、リー氏はGoogleを退職し、スタンフォード大学に戻り、同大学が新たに設立した人間中心人工知能(HAI)研究所の共同所長に就任した。また、AI教育、研究、政策における多様性の向上を目指す非営利団体AI4Allの共同設立者でもある。5月にはTwitterの取締役に就任した。

リーはパロアルトの自宅からZoomでWIREDのシニアライター、ウィル・ナイトと対談した。このトランスクリプトは、長さと明瞭性を考慮して編集されている。


WIRED:社会における制度的な人種差別や偏見に対する国民の怒りが高まっています。テクノロジーの専門家はどのように変化をもたらすことができるのでしょうか?

フェイフェイ・リー:それはとても重要だと思います。私の核となる信念、「機械に独立した価値は存在しない。機械の価値は人間の価値である」に通じます。何年も前に計算倫理学者のシャノン・ヴァラーがこの言葉を口にしていたのを聞いて、それ以来ずっとこの言葉を使っているんです。テクノロジーは人類の誕生以来、人類の一部であり、テクノロジーの活用は人間に根本的な影響を与えます。

私たちは、テクノロジーが人類に良い影響を与え、私たちが信じる価値観を体現するような形で開発されることを確実にしなければなりません。そのためには、イノベーション側、応用側、政策立案側の人々が協力し、包括性の重要性を自然に信じるようにしなければなりません。

顔認識についてお話ししましょう。2018年、あなたの教え子の一人である ティムニット・ゲブルさんは、 「ジェンダー・シェード」というプロジェクトの作成に携わり、 商用顔認識アルゴリズムにおける人種的偏見を浮き彫りにしました。現在、Amazon、IBM、Microsoftなどの企業は、こうした技術の警察への販売を制限しています。企業は、そもそも偏見のある製品をリリースしないようにするにはどうすればいいのでしょうか?

多様なステークホルダーによる対話と行動計画が必要です。これは、非営利団体、地域社会、技術者、産業界、政策立案者、学者など、社会のあらゆる分野のステークホルダーを結集することを意味します。顔認識技術は諸刃の剣であり、個人の権利とプライバシーと公共の安全を両立させる必要があるのは明らかです。市民社会は、このような技術の応用をどのように規制するかについて、一致団結して検討する必要があります。企業も役割を果たさなければなりません。企業には責任があり、他のステークホルダーと同様に説明責任を果たすべきです。

AI は警察の活動をより公平にすることに貢献できると思いますか?

スタンフォード大学の同僚による、警察活動に関する最近の研究を2つご紹介します。どちらも多様な背景を持つ人々が関わっています。1つは、ダン・ジュラフスキー氏とジェニファー・エバーハート氏がAIを用いて、警察官が職務質問の際にボディカメラの映像から使用した言語を分析した研究です。彼らは、警察官に職務質問された人物と実際に使用された言語の間に大きな乖離があることを示しました。警察官は黒人に対して、より敬意を欠いた話し方をする傾向があることが分かりました。自然言語AI技術を用いることで、私たちはこれまで不可能だった方法で、自分自身や組織について洞察を得ることができるのです。

スタンフォード大学のもう一人の教授、シャラド・ゴエル氏は、警察の報告書における公平性を向上させる方法を研究しています。例えば、「駐車場にアジア人女性がいます。身長175cm、トヨタ車を運転しており、車にぶつかりました」という警察の報告書について考えてみましょう。そこに含まれる情報は、必ずしも論理的ではない形で意思決定に意図せず影響を与える可能性があります。自然言語処理技術を用いれば、例えば「アジア人女性」ではなく「女性」や「人物A」、あるいは「暗褐色の髪」ではなく「髪の色B」といったように、効果的に匿名化することができます。しかしもちろん、運転している車など、他にもシグナルとなる要素はあります。

顔認識や自律型兵器など、AI の特定の用途を禁止する取り組みについてはどうでしょうか?

私たちは、顔認識だけでなく、AIの多くの分野において、我が国が技術開発とイノベーションをリードし続けることを確実にしたいと考えています。これは、この技術を有効活用する上で役立ちます。iPhoneは、顔認証技術を搭載した最初のスマートフォンの一つでした。また、例えば、パーソナライズされた銀行業務にも大きな可能性を秘めています。しかし、この技術のイノベーションを継続し、その効果を理解することで、この技術の有効活用を促進しつつ、潜在的な悪用を防ぐことができるということを理解することも重要です。

テクノロジーの応用はしばしば諸刃の剣です。善意だけでは到底不十分です。社会として、私たちはこのことを認識する必要があります。顔認識のような、社会の価値観を反映するテクノロジーの応用には、適切なガードレールを適用するために、協力して取り組む必要があります。テクノロジーから市民社会、法執行機関から政策立案者まで、私たち全員が解決策の一部となるよう努めるべきだと私は信じています。

スタンフォード人間中心のAI研究所について教えてください。

私の博士研究は、人間の認知と機械知能の両方を網羅していました。AIをニッチな研究室科学から社会変革の大きな推進力へと転換させた第一世代の研究者の一人として、当時から人間中心の価値観とテクノロジーの指針の促進に貢献する責任を感じていました。HAIは、人間中心のテクノロジーとAIの発展は密接に連携して進むべきという信念に基づいて設立されました。テクノロジーにおける人間的側面を後回しにすることはもはや許されません。そして、その最大の強みの一つは、学際性にあります。

スタンフォード大学を離れてしばらくGoogleに在籍されていましたね。そこでの経験、特にMavenをめぐる騒動から何を学びましたか?

私は2017年から20ヶ月間の計画的な長期休暇を取り、Googleのクラウドプラットフォームを通じて機械学習ツールの民主化に貢献しようと努めました。しかし、それは企業がテクノロジーの影響に気づき始めた時期でもありました。非常に学びがあり、謙虚な気持ちになりました。

私にとって、これは啓発的で、テクノロジーに対して人間中心のアプローチが必要だという、これまでのキャリアにおける考えを改めて確認するものでした。テクノロジーについて語るだけでなく、深く掘り下げて考える必要があるのです。大手テクノロジー企業に勤めていた経験から、多くのセクターを巻き込んだマルチステークホルダーアプローチも必要だと確信しました。技術者、企業、そしてビジネスリーダーが、これらのテクノロジーを設計、開発、そして展開する際には、社会のあらゆる層と連携することが重要です。これには、個人市民から非営利団体、地域社会、教育者、政策立案者など、あらゆるグループが含まれます。

この経験は、教育者としての責任感にも影響を与えました。それは私の根幹に関わるものです。タイミングを見てください。AI4Allがスタンフォード大学から全国規模のプログラムへと移行した時期です。そして、そこから生まれた理解から、HAIの種が生まれたのです。

世間やマスコミの反応についてどう思いましたか?

私はかなり内向的な性格で、研究室にこもって学生たちと研究している時が一番幸せです。しかし同時に、科学を責任ある方法で一般の人々に伝えるという大きな責任も感じています。テクノロジーの訓練を受けていない人たちにも、そうしたコミュニケーションの機会は与えられるべきです。だからこそ、ウィル、あなたの仕事は非常に重要です。その点で、Googleでの私の経験は非常に重要です。一般の人々は、AIがどのように機能し、何ができるのかをまだ十分に理解していないからです。

ご自身の研究について少しお聞かせください。医療分野に焦点を当てているんですよね?

AIとMLの最もエキサイティングな応用分野の一つは、医療だと私は考えています。患者、介護者、臨床医、そして医療システム全体にとって、AIが有用なツールとなり得るシナリオは無数にあります。

一例として、病院における医療従事者の手指衛生が挙げられます。これは私たちが長年取り組んできたプロジェクトであり、パンデミックのさなか、今や共通の意識の中に浸透しています。スタンフォード小児病院やユタ州インターマウンテン病院と協力し、私たちのチームは、コンピュータービジョン技術が適切な手指衛生を行うべき瞬間を効果的に検知し、リアルタイムのアラートシステムによる介入を可能にすることを示す一連の研究を試行してきました。

私たちは、看護師や医師を含む臨床医と緊密に連携しています。臨床実践の向上に貢献したいという彼らの熱意を理解しつつ、プライバシーの保護と尊重にも注力しています。そこで、シーンや人物の情報は含まず、3D深度信号のみを捉える深度センサーを採用しました。私たちのチームは、スタンフォード大学の生命倫理学者、法学者、倫理学教授と、あらゆる研究プロジェクトにおいて連携しています。

高齢者ケアのためのAIは、私が最も情熱を注いでいる研究分野の一つです。これは、70代後半の病気の両親を長年介護してきたことが一因です。私たちのチームは、複数の医療機関や老年医学専門医と協力し、スマートセンサー技術を用いて、臨床医や介護者が高齢者の健康状態の進行を把握できるよう支援することを目指したパイロットプロジェクトに取り組んでいます。例えば、転倒リスクの増加につながる可能性のある歩き方や身振りの変化、あるいは更なる評価や介入が必要な活動異常などです。

新型コロナウイルス感染症対策にAIを活用する取り組みは、予期せぬ結果をもたらす可能性があると思いますか?今回のパンデミックは、社会の不平等さを浮き彫りにしました。十分な注意を払わなければ、AIアルゴリズムがそれを助長してしまう可能性があります。例えば、アルゴリズムが裕福な白人患者に効果的だった場合などです。

私は8年以上、AIを医療に応用する研究に取り組んできました。私の共同研究者であるスタンフォード大学医学部のアーノルド・ミルスタイン教授が常に述べているように、私たちは最も脆弱な患者層とその状況、つまり住宅、経済状況、医療へのアクセスなどに焦点を当てなければなりません。善意だけでは不十分で、適切な効果を上げるには、様々な関係者を巻き込む必要があります。意図せぬ結果を繰り返したくないのです。

あなた自身の研究がこのようなことにならないようにするにはどうすればいいでしょうか?

HAIは、ヒトを対象とする研究に必要なすべてのガードレールに加え、研究助成金申請の倫理審査も開始しています。これはまだ誰にも義務付けられていませんが、私たちはこの措置が必要だと考えています。私たちは引き続き取り組みを改善していく必要があります。新型コロナウイルス感染症の影響により、ガードレール(例えば、より多様性のあるチームや、バイアスを防ぐための実践など)の整備に、より一層力を入れるべきです。

HAI のこれまでの最も重要な成果は何だと思いますか?

新型コロナウイルス感染症が我が国を襲った後の対応を、私は特に誇りに思っています。4月1日に神経科学とAIに関する会議を予定していましたが、3月1日に「この危機に対して何ができるだろうか」と自問しました。数週間後、科学者、国家指導者、社会科学者、倫理学者などを集めたプログラムを編成しました。議題を見ると、医学、創薬といった分野はもちろんのこと、国際的な状況、接触者追跡に関するプライバシーの側面、そして米国における様々な民族集団に対する外国人排斥といった社会的な側面も取り上げています。

それから2ヶ月後の6月1日には、新型コロナウイルス感染症の経済と選挙への影響を検討する会議を開催しました。国家安全保障の専門家、医師、経済学者を集め、ワクチンの資金調達と選挙への影響について話し合いました。これは、HAIが学際的なアプローチを通じて、あらゆる人々と関わりながら、影響力のあるイベントやテーマに取り組んでいる一例だと思います。

Twitter の取締役会に参加することを選んだ理由を教えてください。

Twitterからのお誘いに大変光栄に思います。Twitterは、個人に世界規模で発言権を与え、遠く離れた場所から近い場所まで、社会の様々な対話を形作る、前例のないプラットフォームです。だからこそ、正しく活用することが非常に重要になります。Twitterは健全な対話の促進に尽力しています。私は科学者として、主に技術的な面で貢献したいと思い、Twitterに参加しました。まだ3、4週間しか経っていませんが、良い影響を与えられることを願っています。健全な対話を促進するというTwitterの理念は、まさにその価値観と合致するものです。

私自身もソーシャルテクノロジーのユーザーとして、そのマイナス面は当然理解しています。Twitterの内外を問わず、私たち全員が協力できればと思っています。そして、それには時間がかかります。一瞬で状況が変わるわけではありません。試行錯誤の失敗も含めて、長い時間がかかりますが、それでも私たちは挑戦しなければなりません。

AIとテクノロジーに影響を与える政策について少しお話ししましょう。米国政府による H-1Bビザの発給停止の決定について、どうお考えですか

私は感謝すべき移民です。スタンフォード大学やそれ以前の大学でのキャリアを通じて、世界中から来た多くの学生と仕事をしてきました。私はこの分野の専門家ではありませんが、世界中の研究者を惹きつけることは、我が国の技術力の向上に重要だと考えています。うまく行けば、イノベーションを促進し、人々の生活をより良くすることができます。私たちはアメリカの技術進歩の歴史を誇りに思っており、それが今後も続くことを願っています。しかし、それは思慮深く、慎重に行う必要があります。

中国系アメリカ人の AI 科学者としてのあなたの個人的な経験は、あなたの考え方にどのように影響していますか?

アメリカは移民によって築かれました。幼い頃に中国出身の両親と共にこの国に来て以来、私に機会を与えてくれた多くの人々、学校、そして職場の支えがなければ、今の私は存在しなかったでしょう。私の家族は機会と自由を求めてこの国にやって来ました。私たちはまた、私たちが持ち込んだ文化遺産を大切にしています。私の形成期、特に教育時代はここで過ごしました。今は高齢の両親の面倒を見ています。アメリカに根ざした幸せな人生を送っています。

同僚の何人かから、我が国の主要なAI組織のリーダーに有色人種の女性が就くのは非常に稀だと指摘されました。私はそれを大変誇りに思いますが、それ以上に、このような状況であってはならないという強い責任を感じています。もし有色人種の代表者がいなければ、私たちは機会と発言力を失ってしまいます。これは極めて重要なことです。


WIREDのその他の素晴らしい記事

  • 画面共有:大学教員のZoom日記
  • 医師と患者がZoomで死について話すとき
  • Signalと暗号化チャットを最大限に活用するためのヒント
  • バーチャルジャムセッションを、音も見た目も良くする方法
  • パンデミックは賃貸経済を変革している
  • 👁 脳はAIの有用なモデルとなるのか?さらに:最新のAIニュースもチェック
  • 🎧 音に違和感を感じたら、ワイヤレスヘッドホン、サウンドバー、Bluetoothスピーカーのおすすめをチェック!

ウィル・ナイトはWIREDのシニアライターで、人工知能(AI)を専門としています。AIの最先端分野から毎週発信するAI Labニュースレターを執筆しています。登録はこちらから。以前はMIT Technology Reviewのシニアエディターを務め、AIの根本的な進歩や中国のAI関連記事を執筆していました。続きを読む

続きを読む