GoogleはAIの利用に制限を設けているが、防衛関連の仕事は許可している

GoogleはAIの利用に制限を設けているが、防衛関連の仕事は許可している

今年初め、 GoogleのCEOであるサンダー・ピチャイ氏は、人工知能(AI)は人類にとって火よりも奥深いものだと述べた。国防総省のプロジェクトをめぐり、数千人のGoogle従業員から抗議が寄せられたことを受け、ピチャイ氏は木曜日、Googleがこの技術をどのように活用するか、そしてどのように活用しないかについてのガイドラインを示した。ピチャイ氏によると、Googleは兵器用AIの開発には取り組まないという。しかし、このガイドラインは企業幹部の裁量に大きく委ねられており、Googleが引き続き軍のために活動することを容認している。

この基本ルールは、ドローン監視ビデオを機械学習で解釈する「Maven」と呼ばれる国防総省のプロジェクトへの同社の関与に抗議する書簡に4,500人以上のGoogle社員が署名したことを受けてのものだ。

反対派の従業員たちは、Googleに対し、あらゆる軍事関連業務への関与を一切放棄するよう求めました。ピチャイ氏の反応は?「ご意見は承知しておりますが、責任ある対応を心掛けておりますのでご安心ください」とのことです。ピチャイ氏の投稿には、「政府や軍とは、他の多くの分野でも引き続き協力していきます。こうした協力関係は重要であり、これらの組織の重要な業務を支援し、軍人や民間人の安全を守るための方法を積極的に模索していきます」と記されています。

これは、Project Mavenの作業継続を認めるという意味に解釈できるかもしれない。しかし、Googleは先週、従業員に対し、来年期限を迎えるMavenとの契約を更新しないことを通告した。また、広報担当者は木曜日、もしMavenが今日再び話題に上ったとしても、同社はおそらく参加しないだろうと述べた。プロジェクトは新しいガイドラインの精神に沿っていないからだ。

Mavenをめぐる抗議活動がきっかけとなったものの、木曜日に掲載されたガイドラインは、はるかに広範な懸念事項に対応しています。Googleは、例えば性別、人種、性的指向などに関する社会的偏見を助長するようなシステムの構築を避けることを誓約しています。AI技術は、Googleが数十億人の顧客から保有しているような膨大なデータセットを用いて学習することでその力を発揮することが多いため、プライバシー保護策をAI技術に組み込むべきだとGoogleは述べています。

「AIがどのように開発され、どのように利用されるかは、今後何年にもわたって社会に大きな影響を与えるでしょう」とピチャイ氏はガイドラインの序文で述べている。「AIのリーダーとして、私たちはこれを正しく理解する特別な責任を感じています。」Googleはまた、他の企業が責任を持ってAIを活用・開発できるよう、公平性やAIシステムのテストといったトピックに関する「推奨プラクティス」も公開した。

この画像にはボウリングスポーツとスポーツが含まれている可能性があります

Project Maven のロゴ。

国防総省

プロジェクト・メイヴンは、国防総省が作戦への人工知能(AI)の活用を強化するための広範な取り組みです。最初のプロジェクトでは、ドローン映像に映る建物、車両、人物などの物体をAIで追跡する取り組みが行われました。このプロジェクトにおけるGoogleの正確な役割は不明ですが、同社は「非攻撃目的」に限定されていると主張しています。

Googleの新しいガイドラインはこの方針に基づいており、AIを武器や「人への危害を引き起こしたり、直接的に助長したりすることを主な目的または実施とするその他の技術」に適用しないことを明記しています。また、この文書では、Googleは「国際的に認められた人権規範に違反する」監視技術の開発には取り組まないことも明記しています。

ガイドライン発表前の木曜日に連絡を取ったグーグル社員の一人は、そのような規則は社内でのみ解釈・施行されるのであれば信頼しにくいと述べた。ビジネス上の懸念が意思決定を歪めるリスクを軽減するためには、外部からの監視が必要だと、この人物は主張した。グーグルは、数十億ドル規模の国防総省のクラウドコンピューティング契約「JEDI」に入札している。

電子フロンティア財団の主任コンピュータサイエンティスト、ピーター・エッカーズリー氏も、Googleは外部からの支援を受けるべきだという意見に同意している。「AI防衛契約のような倫理的に複雑な分野に踏み込むテクノロジー企業には、独立した倫理委員会を設立し、業務の指針とすることを推奨します」とエッカーズリー氏は語る。「GoogleにはAI倫理の分野でリーダーとなる絶好の機会があり、それを無駄にすべきではありません。」

木曜日に公開されたグーグル共同創業者セルゲイ・ブリン氏宛の書簡の中で、ファイサル・アリ・ビン・ジャベル氏は、義理の弟サレム氏がイエメンで米軍の無人機攻撃によって殺害されたと主張し、将来の防衛関連業務におけるグーグルの外部倫理アドバイザーに就任することを申し出た。「グーグルはサレム氏のような人々を殺害しやすくするのではなく、彼らを守ることができる」とジャベル氏は記している。「政府に取り込まれるのではなく、グーグルがこの分野で他の企業が従うべき倫理基準をどのように設定できるかについて議論しましょう」

WIREDのその他の素晴らしい記事

  • 海の吸血寄生虫とのレーザー戦争
  • フォトエッセイ:カリフォルニアの火災と闘う先駆的な女性たち
  • イスラエルの自動飛行機「コーモラント」が負傷兵を安全な場所へ搬送
  • 気候変動によりゾンビアリはさらに狡猾になった
  • 連邦政府のサイバーセキュリティの現状は想像以上に暗い
  • 次のお気に入りのトピックについてさらに深く掘り下げたいですか?Backchannelニュースレターにご登録ください。