Microsoft、Facebook、Google などの企業は社内グループを作成し、人工知能の使用を検討しています。

マイクロソフト、フェイスブック、グーグルなどの企業は社内グループを立ち上げ、人工知能の活用を検討している。HOTLITTLEPOTATO
昨夏のある日、マイクロソフトの人工知能(AI)研究ディレクター、エリック・ホーヴィッツ氏は、愛車のテスラ・セダンのオートパイロット機能を起動した。車はワシントン州レドモンドにあるマイクロソフトのキャンパス近くの曲がりくねった道を自動で走り抜け、彼の思考は解放され、AIの倫理とガバナンスについて共同設立した非営利団体との電話会議に集中することができた。ところが、テスラのアルゴリズムが彼を失望させたと彼は語る。
「車はセンターラインを正確に合わせることができなかった」とホーヴィッツ氏は回想する。運転席側の両タイヤがセンターラインを示す黄色の縁石に接触し、破裂した。ホーヴィッツ氏はハンドルを握り、壊れた車を車線内に戻さなければならなかった。ホーヴィッツ氏自身は無傷だったが、車は後部サスペンションを損傷した状態でトラックの荷台に載せられて現場を去った。運転手は、AIを導入する企業は新たな倫理的および安全上の課題を考慮しなければならないという信念を改めて固めた。テスラ社は、オートパイロットは十分な注意力を持つドライバーによる使用を想定していると述べている。
マイクロソフトでは、ホルヴィッツ氏は2016年に社内倫理委員会の設立に尽力し、自社のAI技術に関する潜在的な難題への対応を支援しました。この委員会は、マイクロソフトの社長兼最高責任者であるブラッド・スミス氏が共同で主導しています。この委員会の活動は、同社が法人顧客からの取引を拒否したり、一部の契約に自社技術の使用を制限する条件を付したりするきっかけとなりました。
ホーヴィッツ氏はこれらの事件の詳細を明かすことを控え、通常は企業がマイクロソフトにカスタムAIプロジェクトの構築を依頼するケースだとだけ述べた。このグループはまた、マイクロソフトの営業チームに対し、同社が警戒しているAIの応用に関する研修も提供している。また、研究論文で黒人女性の顔分析精度が白人男性よりもはるかに低いことが明らかになった顔分析クラウドサービスの改善にも協力した。「マイクロソフトの積極的な関与と、問題への真摯な取り組みぶりを見て、心強く思いました」とホーヴィッツ氏は語る。彼は、マイクロソフトで起こっていることを、かつてのコンピューターセキュリティへの意識改革に例え、すべてのエンジニアがテクノロジーに取り組む方法を変えるだろうと述べている。
AI技術が生活の様々な場所に浸透するにつれ、AIがもたらす倫理的課題について多くの人が議論するようになりました。フランスのエマニュエル・マクロン大統領は先日、WIREDの取材に対し、AI開発を促進する国家計画において「倫理的・哲学的な境界線」の設定を検討すると述べました。新たな研究機関、業界団体、慈善プログラムが次々と設立されています。
マイクロソフトは、正式な倫理プロセスを構築している数少ない企業の一つです。AIで利益を上げようと競い合っている企業の中にも、あまりに急速な動きを懸念する声が出ています。「ここ数年、誰もがAIを1000倍も速く使えるようにすることにこだわってきました」と、Facebookの応用機械学習担当ディレクター、ホアキン・キャンデラ氏は語ります。しかし、Facebook社内でAIツールを使うチームが増えるにつれ、「AIの潜在的な盲点について、非常に意識するようになりました」。
今月開催されたFacebookの年次開発者会議で、データサイエンティストのイザベル・クロウマン氏は、同社のエンジニア向けに「Fairness Flow」と呼ばれる自動アドバイザーのようなものについて説明しました。これは、機械学習ソフトウェアによるデータ分析が、男女や国籍といった異なるカテゴリーでどのように機能するかを測定し、潜在的なバイアスを明らかにするのに役立ちます。研究によると、機械学習モデルは、オンラインで収集された画像やテキストでトレーニングすると、女性やメキシコ人といった特定のグループに対するバイアスを拾い上げたり、増幅させたりすることさえあることが分かっています。
クロウマン氏の最初のユーザーは、企業が求人広告を掲載できるFacebook機能を開発していたエンジニアたちだった。フェアネスフローのフィードバックは、様々なタイプの人々により効果的な求人推薦アルゴリズムを選択するのに役立ったと彼女は言う。彼女は現在、フェアネスフローと類似のツールを、全社的に使用されている機械学習プラットフォームに組み込む作業に取り組んでいる。一部のデータサイエンティストは同様のチェックを手作業で行っているが、これを簡素化することで、この手法がより広く普及するはずだ。「これらのアルゴリズムを導入する前に、人々に不均衡な影響を与えないことを確認しましょう」とクロウマン氏は言う。Facebookの広報担当者は、同社はAI倫理に関する倫理委員会やガイドラインを設置する予定はないと述べた。
AIの研究と展開におけるもう一つのリーダーであるGoogleは最近、企業がAIの倫理性を十分に考慮していない場合に何が起きるかを示すケーススタディとなった。
先週、同社は、人間と電話で会話する際にボットであることを明示する、超リアルな音声アシスタントの新バージョンを義務付けると約束した。この約束の2日前、サンダー・ピチャイCEOは、実験的なソフトウェアが何も知らないスタッフにレストランの予約をさせるという、印象的で、かつ一部の人々にとっては懸念材料となる音声クリップを披露した。
グーグルは過去にも倫理的に問題のあるアルゴリズムで問題を抱えてきた。同社の写真整理サービスは、2015年に黒人の写真に「ゴリラ」のタグが付けられた事件を受けて、「サル」や「チンパンジー」のタグを付けないようにプログラムされている。ピチャイ氏はまた、国防総省のAI契約をめぐり、社内外からの批判にも対処している。この契約では、グーグルはドローン監視映像を解析できる機械学習ソフトウェアの開発を支援している。数千人の従業員がこのプロジェクトに抗議する書簡に署名し、同社のトップAI研究者たちは不満をツイートしている。また、ギズモードは月曜日に、一部の従業員が辞職したと報じた。
Googleの広報担当者は、自動通話ソフトウェア「Duplex」が製品として改良されつつある中で、フィードバックを歓迎しており、機械学習の軍事利用について社内で幅広い議論を行っていると述べた。同社は以前からAIの倫理と公平性に関する研究を行ってきたが、AIの適切な利用に関する正式なルールは存在しなかった。しかし、状況は変わりつつある。国防総省のプロジェクトに対する精査を受け、Googleは自社技術の利用を導く一連の原則の策定に取り組んでいる。
AIに倫理を浸透させようとする企業の取り組みが効果を発揮するかどうかについては、懐疑的な見方もある。先月、テーザー銃の製造元であるアクソンは、ボディカメラなどの警察関連製品へのAI活用といったアイデアを検討するため、外部専門家からなる倫理委員会を設置すると発表した。委員会は四半期ごとに会合を開き、年に1件以上の報告書を発表する。委員会には、アクソンの従業員が特定の業務について懸念を抱いている場合の連絡窓口となる委員も含まれる。
その後まもなく、40以上の学術団体、公民権団体、地域団体が公開書簡でこの取り組みを批判した。彼らの非難の中には、Axonが、新しい警察技術の悪影響に最も苦しむ可能性が高い、警察の監視が厳しい地域の代表者を除外していたことなどが含まれていた。Axonは現在、取締役会がより幅広い人々から意見を聴取することを検討しているという。Googleでセキュリティを担当し、スタンフォード大学の非常勤教授でもある取締役のトレイシー・コサ氏は、今回の出来事を後退とは捉えていない。「率直に言って、とても興奮しています」と、Googleでの役割とは関係なく彼女は語る。コサ氏は、AIの倫理的側面について批判的に考える人が増えることが、企業がAIを正しく活用する上で役立つだろうと述べている。
イェール大学生命倫理学際センターの研究員、ウェンデル・ウォラック氏は、今のところどれもうまくいっていないと指摘する。AI倫理委員会やその他のプロセスに関する企業の初期実験について尋ねられたウォラック氏は、「まだ良い例がないんです」と答える。「高尚な話はたくさんあるけれど、私がこれまで見てきたものはすべて、実行が稚拙なんです」
ウォラック氏は、マイクロソフトのような純粋に社内的なプロセスは、特に外部から見て不透明で、取締役会への独立した窓口がない場合、信頼しにくいと述べている。ウォラック氏は企業に対し、AI倫理担当役員の雇用と審査委員会の設置を強く求める一方で、国内外の規制、協定、基準といった外部ガバナンスも必要だと主張している。
ホーヴィッツ氏も自身の運転事故の後、同様の結論に至りました。テスラのエンジニアを支援するため、事故の詳細を報告したいと考えました。テスラへの電話を振り返る中で、オペレーターは自動車メーカーの責任範囲を明確にすることに関心があったと述べています。ホーヴィッツ氏は推奨されているオートパイロットを使用しておらず、時速45マイル(約72km)未満で運転していたため、事故の責任は彼自身にありました。
「分かります」と、テスラとそのオートパイロット機能を今でも愛用しているホーヴィッツ氏は言う。しかし同時に、今回の事故は、人々にAIへの依存を促す企業が、より多くのことを提供する、あるいは義務付ける可能性があることを示しているとも考えている。「薬を服用した後にひどい発疹や呼吸困難が出たら、FDAに報告するでしょう」と、医師でありコンピューターサイエンスの博士号も持つホーヴィッツ氏は言う。「そういう制度は整備されるべき、あるいは整備できたはずだと思いました」。NHTSA(米国道路交通安全局)は自動車メーカーに対し、車両や部品の欠陥の一部を報告することを義務付けている。ホーヴィッツ氏は、自動運転車から直接データが提供される正式な報告システムを構想している。テスラの広報担当者は、同社は車両の安全性と衝突データを収集・分析しており、オーナーは音声コマンドを使って追加のフィードバックを提供できると述べた。
2014年にチャットボットのスタートアップ企業をIBMに売却したリースル・イヤーズリー氏は、企業におけるAI倫理運動はまだ初期段階にあり、急速に成熟する必要があると述べている。彼女は、自身のボットが若者を操って借金を増やしたり、ソフトウェアと何時間もチャットしたりすることで、銀行やメディア企業などの顧客を喜ばせてしまうことに危機感を覚えたと回想する。
この経験から、イヤーズリー氏はAIアシスタントのスタートアップ企業Akinを公益法人にすることを決意した。AIは多くの人々の生活を向上させるだろうと彼女は言う。しかし、スマートソフトウェアの導入で利益を上げようとする企業は、必然的にリスクの高い領域へと追いやられることになるだろう。その力はますます強まっていると彼女は指摘する。「テクノロジーが進歩するにつれて、状況は悪化していくでしょう」とイヤーズリー氏は言う。
更新日:5月17日午後12時30分(東部標準時):この記事はテスラからの追加コメントにより更新されました。
WIREDのその他の素晴らしい記事
- アマゾンは第2の拠点を求めてシアトルと争っている
- この「悪魔的に巧妙な」バックドアは、コンピュータチップの小さな部分に隠れている
- VRポルノの台頭と感触
- アンドリュー・ニコル監督は彼自身のトゥルーマン・ショーの中に生きている(あなたもそうだ)
- ロッキード・マーティンのドローン撃破ミニミサイルの重量はわずか5ポンド

トム・シモナイトは、WIREDのビジネス記事を担当していた元シニアエディターです。以前は人工知能を担当し、人工ニューラルネットワークに海景画像を生成する訓練を行ったこともあります。また、MITテクノロジーレビューのサンフランシスコ支局長を務め、ロンドンのニューサイエンティスト誌でテクノロジー記事の執筆と編集を担当していました。…続きを読む