グーグルの人工知能倫理はアルゴリズムによる戦争を抑制しない

グーグルの人工知能倫理はアルゴリズムによる戦争を抑制しない

画像には人物のアートや絵画が含まれている可能性があります

ゲッティイメージズ

2018年3月29日、アル・マンタリ一家5人を乗せたトヨタ・ランドクルーザーが、アデン湾内陸部のイエメン、アルバイダ県を走行していた。一家は、土地の売買に立ち会わせるため、地元の長老を迎えにサウマア市に向かっていた。午後2時、米軍の無人機プレデターから発射されたロケット弾が車に命中し、乗っていた3人が死亡した。4人目の男性もその後死亡した。犠牲者の1人、モハメド・サレハ・アル・マンタリには、1歳から6歳までの3人の子供がいた。父親のサレハ・アル・マンタリによると、モハメドは一家の唯一の稼ぎ手だったという。

米国は空爆の責任を認め、犠牲者はテロリストだと主張した。しかし、家族を知るイエメン人たちは、そうではないと主張している。「これは、コミュニティの言葉を鵜呑みにするような事件ではありません。あらゆるレベルで検証が行われています」と、アル・マンタリ一家を代理する法律事務所リプリーブの弁護士、ジェン・ギブソン氏は語る。「知事に至るまで、全員が、犠牲者が民間人だったという事実を保証してくれるのです」。米中央軍(CENTCOM)はここ数週間、空爆の状況に関する調査(「信憑性評価」)を開始した。弁護士たちはこれを異例だと表現している。

アル・マンタリス家の弁護士は、依頼人が標的選定に用いられるメタデータに基づいて殺害されたのではないかと懸念している。こうしたデータは、テキストメッセージ、電子メール、ウェブ閲覧履歴、位置情報、行動パターンなど、情報源の網から集められており、その多くは携帯電話から収集されている。米軍とCIAは標的選定方法(キルチェーンと呼ばれるプロセス)について秘密主義を貫いているが、メタデータは重要な役割を果たしている。ビッグデータ分析、ビジネスインテリジェンス、人工知能システムを用いて、標的を特定できるとされる相関関係を突き止めている。「我々はメタデータに基づいて人を殺す」と、元CIA長官マイケル・ヘイデンは2014年に述べた。

軍隊や諜報機関は、この任務を単独で遂行しているわけではない。民間企業の研究プログラムに大きく依存しており、民間企業もまた、研究開発投資の一部を回収するために政府との取引を確保しようと躍起になっている。その結果、従来は軍と関わりのなかった企業が関与するようになっているとギブソン氏は指摘する。「これまで、ドローン計画に関わってきた民間企業のほとんどは、ゼネラル・アトミックスやレイドスといった、典型的な軍事請負業者といった、伝統的な防衛産業企業でした」と彼女は言う。

こうしたプログラムの1つがプロジェクト・メイヴンである。これは、人工知能システムを訓練して監視ドローンの映像を解析し、「大量の動画や静止画から物体を抽出」させるものだと、アルゴリズム戦クロスファンクショナル・チームの責任者であるドリュー・キューカー氏は書いている。このプログラムは、米軍が標的を選定する取り組みの重要な要素となっている。メイヴンに取り組んでいる企業の一つがグーグルだ。グーグルのエンジニアたちは自社の関与に抗議した。アマゾンやマイクロソフトといった企業のエンジニアも同様の苦情を申し立て、軍、警察、入国管理で使用される顔認識ツール「レコグニション」の開発を支援しないよう雇用主に要請した。テクノロジー企業にとって、これは一つの疑問を提起する。彼らは政府の武力行使に関与すべきなのか?

米国政府が武装ドローンを用いて海外の敵を追跡する政策は、長らく物議を醸してきた。ギブソン氏は、CIAと米軍がドローンを用いて「激戦地から遠く離れた、武力紛争に関与していない地域を、しばしば誤った情報に基づいて」攻撃していると主張している。新アメリカ安全保障センターの技術・国家安全保障プログラム責任者であり、『Army of None』の著者でもあるポール・シャーレ氏は、ドローンとコンピューターパワーの活用により、米軍ははるかに効果的かつ効率的な部隊となり、過去の戦争よりもはるかに少ない民間人の犠牲者を出していると述べた。「実際、Googleのようなテクノロジー企業が軍の様々な活動を支援する必要があるのです」と彼は言う。

ギブソン氏は、これは誤った論理だと指摘する。イエメンのような場所は、はるかに広範なドローン戦争プログラムの試験場となっており、現在、そのプログラムが大規模に展開されていると彼女は指摘する。「トランプ政権下でイエメンへの攻撃は3倍に増加しており、現時点ではこのプログラムがどのような法的枠組みに基づいて運用されているのか、私たちは確信が持てません」とギブソン氏は主張する。アムネスティ・インターナショナルやアメリカ自由人権協会(ACLU)など、複数のNGOは、トランプ政権がドローンを用いた海外での標的殺害に対する抑制と均衡を弱めていると非難している。

調査報道局(IBJ)によると、最初の武装ドローンが登場したのは約18年前です。それ以来、同局の推定によると、米国のドローン攻撃で約1,555人の民間人が死亡しています。米国政府はドローンによる死者に関する公式統計を公表していません。

アル・マンタリス事件の場合、殺害は米軍が正式に交戦していない場所で発生しており、いわゆる「シグネチャー・ストライク」とみられる。ニューヨーク・タイムズ紙によると、これらの攻撃の標的となった人物の身元はしばしば不明だが、攻撃は「テロリストの疑いのある電話番号、アルカイダの拠点と疑われる場所、あるいは人物が武装しているという事実など、事前に定められた一定の基準」に基づいて有効と判断される。

画像にはサンダー・ピチャイのアクセサリー、メガネ、大人、人物、群衆、写真、カメラ、電子機器、宝石が含まれている可能性があります

GoogleのCEOサンダー・ピチャイ氏、マイケル・ショート/ブルームバーグ、ゲッティイメージズ経由

グーグルのサンダー・ピチャイCEOは6月初旬、12人が辞職し、3,100人以上が公開書簡に署名するなど社内キャンペーンが展開されたことを受けて、同社のAI分野での取り組みに関する新たな倫理規定を概説したブログ記事を公開した。

従業員たちは、軍事関連の仕事がグーグルの評判を傷つけるのではないかと懸念し、経営陣に対し「グーグルは戦争に関わるべきではない」と訴えた。グーグルはこれに対し、来年の契約満了後は軍との契約を更新しないと約束した。

ギブソン氏は、プロジェクト・メイヴンが米国政府の標的殺害プログラムに深刻な影響を及ぼすと主張する。「今のところ、彼らがやっていることは非常に無害で、非常に無害に聞こえます。コンピューターに画面上の物体を識別する方法を教えているだけです。しかし、その同じ技術が開発されれば、標的とする人物の選定を自動化し、最終的には武器の発射にまで利用される可能性があります。このプログラムに何らかの形で協力すれば、いわゆるキルチェーン(殺害連鎖)に巻き込まれることになるのです。」

このプログラムは、Googleの新たなAI倫理規定と直接矛盾しているように見える。この倫理規定では、同社はAIを「人への危害を引き起こす、または直接的に促進することを主な目的または実施とする兵器またはその他の技術」として設計または展開しないことを求めている。重要なのは、Googleが引き続き軍と協力し、「サイバーセキュリティ、訓練、軍人募集、退役軍人の医療、捜索救助」に携わるという点だ。

しかし、ガイドラインには運用の余地が残されている。ソフトウェアプログラムはいつ兵器となるのか、そしてGoogleの原則は国際法の条項とどのように関係するのか、とギブソン氏は問う。Googleのガイドラインは、「重大な危害のリスクがある場合、利益がリスクを大幅に上回ると判断される場合にのみ行動を起こし、適切な安全上の制約を組み込む」と約束している。このことから、Googleが想定上のリスクと利益のバランスをどのように取ろうとしているのかという疑問が生じる。

ニューヨーク大学AI Now研究所のケイト・クロフォード氏は、GoogleはAIガイドラインをどのように実装するつもりなのかと問う。数学者、データサイエンティストであり、『Weapons of Math Destruction』の著者でもあるキャシー・オニール氏は、AI開発を監視・監督するための独立したAI監査機関と、この規制エコシステムの一部となる政府による監督の必要性を訴えている。バース大学コンピューティング学部のジョアンナ・ブライソン教授は、AI開発はそこで止まるべきではないと主張する。「あらゆるAI製品において、何か問題が発生した場合は、なぜ問題が発生したのかを把握する必要があります。」

画像には航空機、飛行機、輸送手段、空港、軍用機、爆撃機、ジェット機、飛行場が含まれている可能性があります

ヘルファイア空対地ミサイルを搭載した米空軍のMQ-1Bプレデター無人航空機(UAV)がペルシャ湾地域の秘密空軍基地に着陸した。ジョン・ムーア/ゲッティイメージズ

懸念材料となっているのは、Googleなどの研究が、自ら標的を識別し、自ら殺害する自律型兵器の開発につながるかどうかだ。シャーレ氏によると、この構想は、特に標的の選択に関しては、実際にはまだ遠い道のりだという。それでも、より知能の高い兵器の開発に向けた世界的な競争は既に始まっている。

これらすべては、自律型兵器と国際人道法の不適合性から、殺人の決定を機械に委任することは人間の尊厳に対する侮辱であるという考えまで、さまざまな法的、実際的、倫理的問題を提起している。これは、シェフィールド大学のAIとロボット工学の名誉教授であり、ロボット兵器管理のための国際委員会の議長でもあるノエル・シャーキーの言葉である。同委員会は、プロジェクト・メイブンへのグーグルの関与に反対する公開書簡を発表し、著名な思想家数百人が署名した。

一方、法執行におけるAIの役割ははるかに進んでいます。中国では、警察が音楽イベントで導入された顔認識システムを用いて、既に複数の容疑者を逮捕しています。米国では、国土安全保障省が顔認識AIの大量導入を目前にしていると、技術社会学者のゼイネップ・トゥフェクチ氏は述べています。しかし、こうした技術はしばしば不正確であり、英国の公民権団体は、このシステムは10回中9回は間違っていると主張しています。

警察活動と現代の戦争は表裏一体であり、どちらもアルゴリズムの幻想的な正確性に依存しているとギブソン氏は主張する。「国内レベルでは不正確でも、国際レベルでは正確であるという考えは、私たちが理解しておらず、正確な情報も持っていない文化的背景においては、少々信じ難いものです。」

この記事はWIRED UKで最初に公開されました。