国連報告書によると、人間の操縦なしに飛行するドローンがリビアの人々を攻撃したという。このような兵器を規制するための国際的な取り組みは、これまでのところ失敗している。

イラスト:ジェニー・シャラフ、ゲッティイメージズ
WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。
この年は、自律型致死兵器が未来の懸念から戦場の現実へと移行したことを世界が認識した年として記憶されるだろう。同時に、政策立案者たちがこの問題への対応策について合意に至らなかった年でもある。
金曜日、国連の特定通常兵器使用制限条約(CSCW)に参加している120カ国は、自律型致死兵器の開発または使用を制限するかどうかで合意に至らなかった。しかし、各国は議論を継続し、「強化」することを約束した。
「非常に残念で、本当に機会を逃した」と、ジュネーブに拠点を置く人道支援団体、赤十字国際委員会の上級科学・政策顧問、ニール・デイヴィソン氏は言う。
合意に至らなかったのは、リビア内戦という武力紛争で初めて致死性の自律型兵器が使用されたと国連が報告してから約9カ月後のことだった。
近年、より多くの兵器システムに自律性の要素が組み込まれています。例えば、一部のミサイルは特定のエリア内を特定の指示なしに飛行できますが、攻撃を開始するには依然として人間が関与することが一般的です。そして、ほとんどの政府は、少なくとも現時点では、このような技術を使用する際に人間を「ループ内」に保つ計画を表明しています。
しかし、人工知能アルゴリズム、センサー、電子機器の進歩により、より高度な自律システムの構築が容易になり、いつ致死的な武力を行使するかを自ら判断できる機械の出現の可能性が高まっている。
ブラジル、南アフリカ、ニュージーランド、スイスなど、殺傷性自律型兵器は化学兵器、生物兵器、地雷と同様に条約で規制されるべきだと主張する国々が増えている。ドイツとフランスは、人間を標的とする可能性のあるものも含め、特定の種類の自律型兵器の規制を支持している。中国は極めて限定的な規制を支持している。
米国、ロシア、インド、英国、オーストラリアなど他の国々は、戦略的に不利な状況に陥ることを避けるために技術開発が必要だと主張し、自律型致死兵器の禁止に反対している。
殺人ロボットは長きにわたり人々の想像力を掻き立て、SFの愛すべきキャラクターや未来のディストピア的ビジョンの双方にインスピレーションを与えてきました。近年のAIのルネサンスと、特定の領域において人間を凌駕する新しいタイプのコンピュータープログラムの誕生を受け、テクノロジー業界の著名人の中には、よりスマートな機械がもたらす存在への脅威について警鐘を鳴らす者もいます。
この問題は、2020年のリビア内戦でトルコ製の無人機「カルグ2」が使用されたとする国連報告書を受けて、今年さらに緊迫したものとなった。国民統一政府と連携する部隊が、リビア国民軍指導者ハリファ・ハフタル将軍を支援する部隊に対し無人機を発射し、人々を独自に標的にして攻撃したと報じられている。
「兵站部隊の車列と撤退するハフタル派部隊は…無人戦闘航空機によって追跡され、遠隔攻撃を受けた」と報告書は述べている。「このシステムは、操作者と弾薬間のデータ接続を必要とせずに標的を攻撃するようにプログラムされており、事実上、真の『撃って、忘れて、見つける』能力を備えていた」
このニュースは、自律技術の進歩のスピードを反映している。「技術の発展は、軍事・政治の議論よりもはるかに速いペースです」と、MIT教授であり、人類が直面する存亡の危機に取り組む組織であるフューチャー・オブ・ライフ研究所の共同設立者であるマックス・テグマーク氏は語る。「そして、私たちは必然的に、最悪の結末へと向かっているのです。」
テグマーク氏は、AI兵器の拡散を懸念する技術者の増加の一翼を担う。フューチャー・オブ・ライフ研究所は、いわゆる「スローターボット」がもたらすリスクへの意識を高めるため、2本の短編映画を制作した。11月に公開された最新作は、自律型ドローンが標的を定めて暗殺を行う可能性に焦点を当てている。
「スローターボットの蔓延に反対する声が高まっています」とテグマーク氏は言う。「私たちは軍事用AIを全て禁止しようと言っているのではなく、『人間なら殺せ』と言っているだけです。つまり、人間を標的とする兵器を禁止すべきなのです。」
自律型兵器の使用を禁止、あるいは取り締まる上での課題の一つは、いつ使用されたかを把握するのが難しいことだ。Kargu-2ドローンを開発しているSTM社は、人間の操縦なしに人間を標的にし、発砲できることを確認していない。同社のウェブサイトでは現在、人間の操縦者が致死的な武力の使用に関する判断を下すとしている。「精密攻撃任務は、マン・イン・ザ・ループ原則に基づき、操縦者によって完全に遂行されます」と記載されている。しかし、6月のサイトのキャッシュ版にはそのような警告は記載されていない。STM社はコメント要請に応じなかった。
「攻撃に使用されたドローンがどの程度自律的に動作していたのか、真に知ることができないグレーゾーンに入りつつある」と、新アメリカ安全保障センターの副社長兼研究ディレクターであり、『Army of None: Autonomous Weapons and the Future of War(無人軍:自律兵器と戦争の未来) 』の著者であるポール・シャーレ氏は語る。「これは、説明責任に関して非常に難しい問題を提起する」
この曖昧さのもう一つの例は、9月にイスラエルがAI支援兵器を用いて著名なイランの核科学者を暗殺したという報道である。ニューヨーク・タイムズの調査によると、遠隔操作式機関銃は顔認識と自律性を利用したものだったが、この兵器が人間の承認なしに作動可能であったかどうかは不明である。
シャーレ氏は、「多くの企業が自社技術の能力を誇大宣伝する際に『自律性』という言葉を使っているという事実によって、不確実性はさらに高まっている」と述べている。最近のドローン攻撃は、基盤技術が急速に進歩していることを示唆している。
米国では、国防高等研究計画局(DARPA)が、人間の操縦者による監視・制御が困難な方法で連携する多数のドローンと地上車両を用いた実験を行っている。米空軍もまた、AIが戦闘機パイロットを支援または代替する方法を研究しており、人間のパイロットとAIパイロットによるドッグファイトを複数回実施している。
たとえ自律型兵器を規制する条約が存在したとしても、「遵守に関して民主主義国家と権威主義国家の間には非対称性がある」とシャレ氏は指摘する。ロシアや中国といった敵対国は、自律型兵器の開発を制限することに同意する一方で、同様の説明責任を負わずに開発を継続する可能性がある。
これは、自律システムが動作する速度と複雑さに対する防御策としてだけでも、AI 兵器の開発が必要であることを意味すると主張する人もいます。
国防総省当局者は4月に米陸軍士官学校で開かれた会議で、人間が十分な速さで対応できない状況では指揮系統から人間を排除することを検討する必要があるかもしれないと語った。
敵対国が優位に立つ可能性は、軍事計画担当者にとって明らかに大きな懸念事項です。WIREDに抜粋された『2034:次なる世界大戦の小説』の中で、作家のエリオット・アッカーマンとジェームズ・スタヴリディス米海軍提督は、「米国に対する大規模なサイバー攻撃――敵対国がサイバーステルス技術と人工知能をまるで魔女の調合薬のように洗練させ、それを米国に対して使用する」というシナリオを描いています。
AIの軍事利用をめぐる過去の論争にもかかわらず、米国のテクノロジー企業は国防総省のAIスキル向上を支援し続けている。AIの戦略的可能性を検討する委員会である国家安全保障委員会(Google、Microsoft、Amazon、Oracleの代表者を含む)は、AIへの多額の投資を推奨した。
国連の議論に関わってきたデイヴィソン氏は、テクノロジーの進歩が政策論争を上回っていると指摘する。「各国政府は新たなルールを採択するために具体的な措置を講じる必要がある」と付け加えた。
彼は依然として、たとえ国連の外で行われるとしても、各国が何らかの制限事項で合意するだろうという希望を抱いている。各国の行動は、自律型兵器を容認していないことを示唆していると彼は言う。「非常に興味深いのは、自律型兵器が人間を直接標的とするために使用されるという主張は、軍、政府、あるいはメーカーなど、関係者によって反駁される傾向があるということです」と彼は言う。
WIREDのその他の素晴らしい記事
- 「グリーン」ヘリウムを探す競争
- あなたの屋上庭園は太陽光発電農場になるかもしれません
- この新しい技術は岩を削ることなく切断します
- あなたのサーバーに最適なDiscordボット
- スミッシング攻撃から身を守る方法
- 👁️ 新しいデータベースで、これまでにないAIを探索しましょう
- 🏃🏽♀️ 健康になるための最高のツールをお探しですか?ギアチームが選んだ最高のフィットネストラッカー、ランニングギア(シューズとソックスを含む)、最高のヘッドフォンをご覧ください