AIハッキングの時代は想像以上に近づいている

AIハッキングの時代は想像以上に近づいている

アルゴリズムは人間の曖昧さを理解するのに苦労する。しかし、そのような癖は、人工知能ハッカーの脅威に対する脆弱な盾となる。

税務書類、バイナリコード、財務グラフ、囲碁ゲームの写真コラージュ

写真イラスト:WIREDスタッフ、ゲッティイメージズ

WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。

AI ハッキングの未来はどれほど現実的でしょうか?

その実現可能性は、モデル化およびハッキングの対象となる特定のシステムに依存します。AIが解決策の最適化を開始するだけでも、ましてや全く新しい解決策を開発するには、環境のあらゆるルールをコンピューターが理解できる方法で形式化する必要があります。AIでは目的関数と呼ばれる目標を設定する必要があります。AIは、パフォーマンスを向上させるために、自身のパフォーマンスに関する何らかのフィードバックを必要とします。

これは時に些細な問題です。囲碁のようなゲームでは簡単です。ルール、目的、そしてフィードバック(勝ったか負けたか)はすべて明確に指定されており、それ以外に混乱を招くものは何もありません。GPT-3 AIは「世界」が単なるテキストであるため、筋の通ったエッセイを書くことができます。これが、目標と報酬のハッキングに関する現在の例のほとんどが、シミュレーション環境から来ている理由です。シミュレーション環境は人工的で制約があり、すべてのルールがAIに指定されています。

重要なのは、システムにおける曖昧さの程度です。世界中の税法をAIに取り込むことは想像に難くありません。なぜなら、税法は納税額を決定する数式で構成されているからです。法律のコード化に最適化されたプログラミング言語「Catala」さえ存在します。しかし、すべての法律には曖昧さが内在しています。その曖昧さをコードに翻訳するのは困難なため、AIは対応に苦労するでしょう。AIの登場にもかかわらず、税理士は近い将来、完全雇用が続くでしょう。

人間のシステムのほとんどは、さらに曖昧です。AIがホッケーのスティックを曲げるといった現実世界のスポーツの技を思いつくことは想像しがたい。AIはゲームのルールだけでなく、人間の生理学、スティックとパックの空気力学などを理解する必要がある。不可能ではないが、囲碁の斬新な一手を考えるよりもはるかに難しいだろう。

複雑な社会システムにおけるこの潜在的な曖昧さは、AIハッキングに対する短期的なセキュリティ防御策となる。アンドロイドが実際にスポーツをプレーするか、あるいは世界をあらゆる交差する次元において広く理解できる汎用AIが開発されるまでは、AIによるスポーツハッキングは実現しないだろう。カジノゲームのハッキングや立法プロセスのハッキングにも同様の課題が存在する(AIは独自にゲリマンダーを発見できるだろうか?)。AIが個人および集団における人々の働き方をモデル化し、シミュレーションできるようになるまでには、人間と同様に立法プロセスをハッキングする斬新な方法を考案できるまでには、長い時間がかかるだろう。

AIハッカーだらけの世界はSFの世界の話ではあるものの、決して馬鹿げたSFの世界の話ではありません。AIの進歩は猛烈な勢いで進み、能力の飛躍は不規則で不連続です。難しいと思っていたことが実は簡単だったり、簡単だと思っていたことが実は難しいことだったりするのです。1980年代初頭、私が大学生だった頃、囲碁はルールではなく、可能な手の数の多さゆえに、コンピューターがマスターすることは決してできないと教えられました。今日では、AIは囲碁のグランドマスターです。

AIは主に明日の問題かもしれませんが、私たちは今日、その前兆を目にしています。私たちは、強制力があり、理解しやすく、倫理的な解決策について考え始める必要があります。なぜなら、AIに関して私たちが期待できることがあるとすれば、それは私たちが予想するよりも早く、それらの解決策が必要になるということだからです。

AIによるハッキングが最初に見つかるのは、おそらく金融システムでしょう。なぜなら、これらのルールはアルゴリズム的に扱いやすいように設計されているからです。高頻度取引アルゴリズムはその原始的な例であり、将来的にははるかに高度化するでしょう。AIに世界中の金融情報をリアルタイムで提供し、さらに世界中の法律や規制、ニュースフィードなど、関連しそうなものをすべて提供し、「合法的な利益の最大化」あるいは「許容される利益の最大化」といった目標を設定する、といったことも可能でしょう。私の推測では、これはそう遠い未来の話ではなく、結果として様々な斬新で全く予想外のハッキングが生まれるでしょう。そして、おそらく人間の理解を超えたハッキン​​グも存在するでしょう。つまり、私たちはそれが起こっていることに全く気づかないということです。

短期的には、AIと人間が協力してハッキングを行う可能性が高くなります。AIはハッキングの可能性がある脆弱性を特定し、経験豊富な会計士や税理士が経験と判断力を駆使して、その脆弱性を悪用して利益を得られるかどうかを判断します。

ほぼ歴史を通じて、ハッキングは人間だけの活動でした。新しいハッキング方法を探すには、専門知識、時間、創造性、そして運が必要です。AIがハッキングを始めれば、状況は一変します。AIは人間と同じような制約や限界に縛られることはありません。睡眠も必要ありません。エイリアンのように思考し、私たちが予測できない方法でシステムをハッキングするでしょう。

コンピュータは、速度、規模、範囲、そして洗練度という4つの側面においてハッキングを加速させてきました。AIはこれらの傾向をさらに悪化させるでしょう。

まず、スピードです。時には数ヶ月、あるいは数年かかる人間のハッキングプロセスが、数日、数時間、あるいは数秒にまで短縮される可能性があります。AIに米国の税法全体を入力させ、税負担を最小限に抑える方法をすべて考え出せと指示したらどうなるでしょうか?あるいは、多国籍企業であれば、地球上のすべての税法を分析し、最適化すればどうなるでしょうか?AIは指示なしに、デラウェア州で法人を設立し、パナマで船舶登録するのが賢明だと判断できるでしょうか?私たちがまだ知らない脆弱性、つまり抜け穴をAIはどれだけ発見するでしょうか?数十?数百?数千?私たちには分かりませんが、おそらく今後10年以内には明らかになるでしょう。

次に、規模です。AIシステムがハッキングを発見し始めると、私たちが全く想定していない規模でそれを悪用できるようになります。そのため、AIが金融システムを操作し始めると、その領域を支配するようになるでしょう。すでに私たちの信用市場、税法、そして法律全般は富裕層に有利に偏っています。AIはこの不平等を加速させるでしょう。利益追求のために金融をハッキングする最初のAIは、平等を重視する研究者によって開発されるのではなく、世界的な銀行、ヘッジファンド、そして経営コンサルタントによって開発されるでしょう。

さて、範囲についてですが、ハッキングに対処する社会システムは存在しますが、それらはハッカーがまだ人間だった時代に開発されたものであり、ハッキングは人間のペースで進行していました。新たに発見された数百、ましてや数千もの税制上の抜け穴を迅速かつ効率的に裁定できる統治システムは存在しません。税法をそれほど迅速に修正することは不可能です。人間がFacebookを利用して民主主義をハッキングすることを阻止できていないのに、AIがそれを行えば何が起こるか想像もつきません。AIが金融システムへの予期せぬ、しかし合法的なハッキングを解明し始め、世界経済を荒波に巻き込むような事態になれば、回復には長く苦しい道のりが待っているでしょう。

そして最後に、洗練度です。AI を活用したハッキン​​グは、人間の力だけでは考え出せないような複雑な戦略を可能にします。AI の高度な統計分析により、最高の戦略家や専門家でも気づかなかったような変数間の関係性、ひいては潜在的な悪用の可能性が明らかになることがあります。この洗練度の高さにより、AI はターゲット システムの複数のレベルを覆す戦略を展開できる可能性があります。たとえば、政党の得票率を最大化するように設計された AI は、経済変数、選挙メッセージ、投票手続きの微調整の正確な組み合わせを決定し、それが選挙の勝敗を左右する可能性があります。これは、地図作成ソフトウェアがゲリマンダーにもたらした革命を民主主義のあらゆる側面にまで拡大することになります。さらに、AI が株式市場、立法制度、世論を操作するために提案する、検出が難しいトリックについても触れていません。

コンピュータの速度、規模、範囲、洗練度を考えると、ハッキングはもはや私たち社会が管理できない問題になるでしょう。

映画「ターミネーター」のワンシーンを思い出します 。カイル・リースがサラ・コナーに、彼女を狩るサイボーグについてこう語る場面です。「交渉の余地はない。理屈で説明することもできない。同情も後悔も恐怖も感じない。そして、絶対に、決して止まることはない…」。私たちが相手にしているのは 文字通りのサイボーグの暗殺者ではないが、ソーシャルハッキングの世界でAIが敵対するようになるにつれ、人間の弱点を探し出すその非人間的な能力に追いつくのは同じくらい難しくなるかもしれない。

一部のAI研究者は、強力なAIが人間が課した制約をどの程度克服し、潜在的に社会を支配するようになるのかを懸念しています。これは突飛な憶測のように思えるかもしれませんが、少なくとも検討し、予防する価値のあるシナリオです。

しかし、今日そして近い将来、本書で描かれているようなハッキングは、権力者によって私たち一般人に対して行われることになるだろう。ノートパソコンに搭載されているものでも、オンラインでも、ロボットに搭載されているものでも、あらゆるAIは他者によってプログラムされており、通常は自分自身の利益のためではなく、自分自身の利益のためにプログラムされている。Alexaのようなインターネット接続デバイスは、あなたの信頼できる友人であるかのように振る舞うことができるが、Amazonの製品を販売するために設計されていることを決して忘れてはならない。Amazonのウェブサイトが、競合他社の高品質な製品ではなく自社ブランド製品を購入するよう促すように、Amazonは常にあなたの利益のために行動するわけではない。Amazonは株主の利益のために、あなたのAmazonへの信頼をハッキングするだろう。

意味のある規制が存在しない現状では、AIハッキングの蔓延を阻止することは事実上不可能です。私たちは、それが避けられないものであることを受け入れ、有益なハッキングをシステムに定着させ、悪意のあるハッキングや意図せず損害を与えるハッキングを無効化することで、迅速かつ効果的に対応できる強固な統治構造を構築する必要があります。

この課題は、AIがどのように進化するか、あるいは制度がそれにどのように対応できるかという問題よりも、より深く困難な問いを提起する。どのようなハックが有益とみなされるのか? どれが有害か? そして誰がそれを決めるのか? 政府は浴槽で溺れるほど小さくあるべきだと考えるなら、おそらく、政府による国民統制能力を低下させるハックは概して良いと考えるだろう。しかし、それでも、技術的な支配者を政治的支配者に置き換えることは望まないだろう。予防原則を信じるなら、ハックが社会システムに組み込まれる前に、できるだけ多くの専門家がハックをテストし、判断することを望むだろう。そして、その原則をさらに上流、つまりハックを可能にする制度や構造に適用したいと考えるかもしれない。

疑問は尽きない。AIが生み出すハッキングは、地域レベルで管理すべきか、それとも世界規模で管理すべきか? 管理者によるものか、国民投票によるものか? あるいは、市場や市民社会団体に決定を委ねる方法はあるのだろうか? (アルゴリズムにガバナンスモデルを適用しようとする現在の取り組みは、今後の動向を示す好例と言えるだろう。)私たちが設計する統治構造は、一部の人々や組織に、未来を形作るハッキングを決定する権限を与えることになる。私たちは、その権限が賢明に行使されるよう、万全を期す必要がある。