Google、AIの難しい倫理問題で他者を支援することを提案

Google、AIの難しい倫理問題で他者を支援することを提案

企業は、自社のデジタルインフラを運用せずに済むよう、Amazon、Microsoft、Googleなどのクラウドコンピューティングプロバイダーに多額の費用を支払っています。Googleのクラウド部門はまもなく、CPUやディスクドライブといった目に見えないもの、つまり人工知能(AI)の利用の是非といったものをアウトソーシングするよう顧客に呼びかけるでしょう。

同社は年末までに新たなAI倫理サービスを開始する予定です。当初は、コンピュータービジョンシステムにおける人種差別の検出や、AIプロジェクトを統括する倫理ガイドラインの策定といった業務について、他社に助言を提供します。長期的には、顧客のAIシステムの倫理的誠実性に関する監査を提供し、倫理に関する助言を有料化する可能性もあります。

Googleの新たなサービスは、収益性は高いものの、ますます不信感を募らせている業界が、倫理的な指針を提供することで事業を拡大できるかどうかを試すものとなるだろう。同社はクラウドコンピューティング市場でAmazonとMicrosoftに大きく後れを取っており、AIの専門知識を競争上の優位性と位置付けている。もし成功すれば、この新たな取り組みは新たな流行語を生み出す可能性がある。それは、SaaS(Software as a Service)などのクラウド業界の造語をモデルにした「EaaS(Ethics as a Service)」である。

Googleは、AI倫理に関する教訓を、自らの論争を通して、苦い経験を​​通して学んできた。2015年、Googleは謝罪し、フォトアプリでゴリラの検出をブロックした。これは、あるユーザーが、黒人の友人と写っている写真に「ゴリラ」というラベルが付けられたと報告したためである。2018年には、数千人のGoogle従業員が、ドローンによる監視画像を分析するためにGoogleの技術が利用されていた国防総省の「Maven」と呼ばれる契約に抗議した。

記事画像

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。

その後まもなく、同社はAI技術の利用に関する倫理原則を発表し、類似プロジェクトへの参入は今後行わないと表明したが、防衛関連業務への参入を全面的に否定したわけではない。同年、グーグルは中国の権威主義的な検閲に準拠するよう設計された検索エンジンのバージョンをテストしていることを認め、悪用リスクを理由に、ライバルのマイクロソフトやアマゾンが長年提供してきたような顔認識技術は提供しないと表明した。

Googleの苦戦は、AIが世界に貢献するだけでなく、害を及ぼす可能性もあるという、技術者の間で広く認識されつつある現象の一端です。例えば、顔認識システムは黒人に対して精度が低い場合が多く、テキストソフトウェアはステレオタイプを助長する可能性があります。同時に、規制当局、議員、そして市民は、テクノロジーが社会に与える影響について、より疑念を抱くようになっています。

これを受けて、一部の企業は、技術の逸脱を防ぐための研究と審査プロセスに投資しています。マイクロソフトとグーグルは、現在、新しいAI製品と潜在的な取引の両方を倫理上の懸念事項に基づいて審査しており、その結果、取引を断っていると述べています。

Googleのクラウド部門でAI戦略に携わるトレイシー・フレイ氏は、同様の傾向が、Googleの強力なAIに頼る顧客にも倫理的な支援を求めるよう促していると述べています。「テクノロジーの世界は、『できるから作る』ではなく、『作るべきか?』と考える方向にシフトしています」と彼女は言います。

Googleは既に、世界的銀行大手HSBCなど、一部の顧客に対し、AI倫理について検討する支援を行っています。そして今、年末までに正式なAI倫理サービスを開始することを目指しています。フレイ氏によると、最初のサービスには、Google社員向けに提供されているものと同様の、AIシステムにおける倫理的問題の見分け方や、AI倫理ガイドラインの策定・実施方法といったトピックに関するトレーニングコースが含まれる可能性が高いとのことです。その後、顧客のAIプロジェクトのレビューや監査を行うコンサルティングサービスを提供する可能性もあり、例えば、融資アルゴリズムが特定の人口統計グループの人々に対して偏っていないかを確認するといったサービスが考えられます。Googleは、これらのサービスの一部を有料化するかどうかはまだ決定していません。

Google、Facebook、Microsoftは最近、開発者が自社のAIシステムの信頼性と公平性をチェックできる技術ツール(多くの場合無料)をリリースした。IBMは昨年、「公平性をチェック」ボタンを備えたツールをリリースした。このツールは、システムの出力が民族や郵便番号などの属性と潜在的に問題となる相関関係を示していないかを調べることができる。

AIに対する倫理的な限界を顧客が定義できるよう支援するという、さらに一歩踏み込んだ取り組みは、それ自体が倫理的な問題を引き起こす可能性があります。「私たちにとって、道徳警察のように聞こえないようにすることが非常に重要です」とフレイ氏は述べています。彼女のチームは、顧客の選択を強制したり、責任を負ったりすることなく、倫理的なアドバイスを提供する方法を検討しています。

トランプをする人間とロボットのシルエット

サンタクララ大学マーククラ応用倫理センターのテクノロジー倫理担当ディレクター、ブライアン・グリーン氏は、AIで利益を上げようとしている企業が、その技術を抑制する上で最適な道徳的指導者とは限らないという点をもう一つの課題として挙げています。「企業は法的に利益を上げることを義務付けられており、倫理はそれと両立する場合もありますが、そのせいで、最も倫理的な方向に進まない意思決定につながる可能性もあります」とグリーン氏は指摘します。

フレイ氏は、Googleとその顧客は皆、AIを倫理的に導入するインセンティブを持っていると述べている。なぜなら、AIが広く受け入れられるためには、その技術が適切に機能しなければならないからだ。「AIの成功は、慎重かつ思慮深く実施されるかどうかにかかっています」と彼女は言う。彼女は、黒人に対する警察の暴力に対する全国的な抗議活動が続く中、IBMが最近顔認識サービスを撤回したことを指摘する。これは、顔分析アルゴリズムが肌の色の濃い人では精度が低いことを示した「ジェンダー・シェード」プロジェクトなどの研究が一因となったようだ。マイクロソフトとアマゾンは、規制が強化されるまで、法執行機関への販売を一時停止するとすぐに発表した。

結局のところ、AI倫理サービスに顧客を登録させるかどうかは、未来に向けてより速く進むためにGoogleに頼った企業に、実際にはよりゆっくりと進むべきだと納得させるかどうかにかかっているかもしれない。

昨年末、Googleは著名人に限定した顔認識サービスを開始しました。これは主に、膨大なエンターテイメント動画コレクションの検索やインデックス作成を必要とする企業を対象としています。著名人はオプトアウトすることができ、Googleはどの顧客がこの技術を利用できるかを審査します。

倫理審査と設計プロセスには18ヶ月を要し、公民権指導者との協議や、一部の黒人男性俳優の精度低下を引き起こしていたトレーニングデータの問題の修正も含まれていた。Googleがこのサービスを開始する頃には、Amazonの著名人認識サービス(著名人がオプトアウトできるサービスも提供)は、既に2年以上前から一般公開されていた。


WIREDのその他の素晴らしい記事

  • 数学における性別による固定観念を数学で打破する方法!
  • MAGA爆弾犯の激しい捜索
  • お子様のリモート学習を成功させるためのヒント
  • 「本物の」プログラミングはエリート主義の神話である
  • AIの魔法で100年前の映画が新品に見える
  • ✨ ロボット掃除機からお手頃価格のマットレス、スマートスピーカーまで、Gearチームのおすすめ商品であなたの家庭生活を最適化しましょう