先週、ヒューメイン・テクノロジーセンターは、金融、慈善事業、産業界、政府、メディアのリーダー100名以上をニューヨーク市のペイリー・センター・フォー・メディアのキッシンジャー・ルームに招集し、人工知能(AI)が人類を滅ぼす可能性について議論した。講演者のトリスタン・ハリス氏とアザ・ラスキン氏は、終末論的なプレゼンテーションを「核兵器が物理世界にとって何であるか…AIは他のすべてにとって何であるか」と書かれたスライドで始めた。
この会合は歴史的なもので、おそらくBingのチャットボットに扮した終末の四騎士が降り立ち、私たちの知性を自分たちのものに置き換えるであろう、今後何年も記憶に残るものになると聞かされた。それは、昔のSF映画、あるいはもっと最近の茶番劇『ドント・ルック ・アップ』のワンシーンを彷彿とさせた。科学者たちが脅威を発見し、眠りについた人々の肩を揺さぶり、 この恐ろしい脅威がまさに私たちに向かってきており、今すぐ行動を起こさなければ私たちは死ぬと説き伏せようとするシーンだ。
少なくとも、ハリス氏とラスキン氏はそう結論付けたようだ。彼らの説明によると、AI開発企業で働く人々の一部が、開発中の製品が極めて危険であり、大惨事を防ぐには外部からの力が必要だと懸念してセンターに相談に来たという。センターの共同設立者たちは、AI研究者の半数がAIによって人類が絶滅する可能性は少なくとも10%あると考えているという調査結果を繰り返し引用した。
AIの誇大宣伝と不確実性が渦巻くこの時代に、ハリスとラスキンはガラスを破り警報を鳴らしている。彼らが警報を鳴らすのはこれが初めてではない。技術デザイナーからメディアに精通したコミュニケーターに転身した彼らは、ソーシャルメディアが社会への脅威であることを世界に知らせるためにセンターを共同設立した。彼らの懸念を究極的に表現したのは、Netflixの人気ドキュメンタリー 兼ホラー映画『 ソーシャル・ジレンマ』への参加だった。この映画はニュアンスがなく、いくぶんヒステリックだが、ソーシャルメディアによる注意の獲得、私たちを分断する動機、個人データの兵器化に対する多くの苦情に私は同意する。これらはインタビュー、統計、グラフを通じて提示された。しかし、このドキュメンタリーは、映画『リーファー・ マッドネス』からそのまま飛び出してきたような誇大宣伝された架空の物語にクロスカットすることで、自らの信憑性を台無しにし、Facebookの投稿によって1人の子供が過激化して投獄され、もう1人が落ち込むなど、健全な田舎の家族が破滅に追い込まれる様子を描いている。
この一方的な姿勢は、センターの新たなキャンペーン「AIジレンマ」の特徴でもあります。(センターは、Netflixで新たなドキュメンタリーを制作中かどうかについては明言を避けています。)以前のジレンマと同様に、ハリス氏とラスキン氏が指摘する多くの点は妥当です。例えば、ChatGPTのようなボットがどのように出力を生成するのか、現状では完全に理解できないことなどです。彼らはまた、AIが宿題をこなしたり、Bing検索を強化したり、 ニューヨーク・タイムズの コラムニスト、ケビン・ルース氏への愛情を表現したりするほど急速に強力になった経緯についても、分かりやすくまとめています。
ハリス氏とラスキン氏が想定する最悪のシナリオを完全に否定するつもりはない。AIの専門家が自分たちの技術が人類を滅ぼす可能性があると信じているという、驚くべき統計は、実際にはある程度当たっている。2022年8月、 AI Impactsという組織が、2つのAIカンファレンスで発表された論文の著者または共著者4,271人に連絡を取り、アンケートに回答するよう依頼した。回答したのはわずか738人ほどで、結果には多少矛盾するものもあったが、案の定、回答者の48%が、極めて悪い結果、すなわち人類絶滅の可能性が少なくとも10%あると見ていた。ちなみに、AI Impactsは、効果的利他主義センターや、遠い将来のAIシナリオに関心を示している他の組織から部分的に支援を受けている。いずれにせよ、このアンケートでは、著者らが破滅的な事態が起こる可能性があると考えているのであれば、なぜこの破壊的とされる科学を前進させるために論文を書いているのかは尋ねられていない。
しかし、この絶滅論は、私たちの血圧を上げて、強力な技術が悪用される前にそれを抑制するための強力なガードレールを追加するよう促すためのものに過ぎないのではないかと思います。ラスキン氏とハリス氏の話を聞いた限りでは、彼らが言及する終末論は、スカイネットのようなSF的な支配や、研究者たちが10%の確率で起こると考えていたようなものではありません。彼らは知覚力を持つ邪悪なロボットを予言しているわけではありません。むしろ、AIが無数の方法で利用されることで、自動化された誤情報が蔓延し、人々が失業し、事実上、AIを悪用したい者すべてに莫大な権力を与えることで、混乱を引き起こす世界について警告しているのです。AIを無秩序に開発している企業の罪は、この強大な力を無謀に拡散させていることです。
例えば、ハリス氏とラスキン氏がAIの潜在的な危害について共有した数多くのスライドの一つを見てみよう。それは、研究者たちが高度な機械学習技術を脳スキャンデータに適用した驚くべき研究から引用されたものだった。AIの助けを借りて、研究者たちは実際に脳スキャンデータのみから被験者が見ている物体を特定できたのだ。そのメッセージは一見明白だった。 来たるべきディストピア的なAI世界では、当局は私たちの頭の中を見ることになる!ボブ・ディランが50年前に「もし私の思考夢が見られたら/彼らはきっと私の首をギロチンにかけるだろう」と書いた時、おそらく予想していなかったであろうことだ。キッシンジャー・ルームに座って、私は一部の政治家たちが今まさに斬首用の刃を研いでいるのではないかと考えた。
しかし、コインの裏側にはもう一つの側面があります。それは、AIが人類の生活を向上させるパートナーとなるという側面です。この実験は、AIが脳の機能という捉えどころのない謎を解き明かしたり、重度の麻痺を持つ人とコミュニケーションをとったりする上でどのように役立つかを示しています。
同様に、ChatGPTやGoogleのボットLaMDAを動かすアルゴリズムの一部は、がんなどの医療問題の特定と対策に役立つ可能性を秘めています。センターのプレゼンテーションでは主要なテーマではありませんが、共同創設者たちはこのことを理解しています。今週、ラスキン氏と会話した際、彼自身も高度なAIの熱心なユーザーであることを認めました。彼は機械学習を活用して、クジラなどの動物の言語を理解しています。「そこから素晴らしいものが生まれないと言っているわけではありません」と彼は言います。私の生物学的大規模言語モデルを使って二重否定を取り除いてみましょう。彼は、 そこから多くの素晴らしいものが生まれると 言っているのです。
このAIの大きな転換期において最も苛立たしいのは、最も危険なことが同時に最もエキサイティングなことでもあるということです。合理的なガードレールを設けることは素晴らしいアイデアのように聞こえますが、特に一方がDEFCON(独立国家共同体)を掲げ、もう一方が株式市場における意味での株式公開をしようとしている場合、それを実行するのは宇宙的に困難でしょう。
では、彼らの解決策は何でしょうか?センターは2つの緊急措置を求めています。まず、AIの減速、特に「主要な営利企業による一般へのAI展開の一時停止」です。確かに、Microsoft、Meta、Google、OpenAIは ボットを開発できますが、秘密にしておくべきです。いい考えですが、現時点ではこれらの企業は皆、競合他社に優位に立つことを恐れて、正反対のことをしています。一方、中国は、次のドキュメンタリーがどんなに恐ろしいものであろうと、やりたい放題です。
推奨される次のステップは、AIの蛇口を閉めた後です。その時間を活用して、安全対策、標準、そしてボットの行動を理解する方法(現在は存在しません)を開発し、「ポストAIの世界に対応できるよう、制度を適切にアップグレード」します。最後の部分をどうするかは分かりませんが、AIに取り組んでいる大企業のほぼすべてが、安全性と標準規格の整備に既に取り組んでいると断言しています。
もちろん、こうした保証を確信したいのであれば、説明責任、つまり法整備が必要です。今週、センターがワシントンD.C.でプレゼンテーションを繰り返したのは偶然ではありません。しかし、米国議会から理想的なAI関連法案が提出されるとは想像しがたい。国土の半分が火災に見舞われ、干ばつに見舞われ、海面上昇によって洪水に見舞われ、あるいは飛行機が離陸できないほどの高温に見舞われている時に、いまだに気候変動について議論している議会です。議員の大多数が、反逆的な暴徒が自分たちの建物に侵入し、自分たちを殺そうとしているという現実を、いまだに忘れようとしている議会です。この議会は、数々の スライドのせいで、巨大で新興産業を阻止しようとしているのでしょうか?
AIの力は独特ですが、強力な技術を封じ込めようとする闘いはよくある話です。新たな技術革新が起こるたびに、企業(そして政府)はそれをどのように活用するかを選択する権利を持ちます。イノベーションを人々に普及させることは良いビジネスであり、人々の生活は向上し、さらにはより楽しくなります。しかし、技術が悪影響を全く考慮せずにリリースされれば、その製品は悲惨な結果をもたらすでしょう。研究者や企業にそのような害悪の責任を負わせることは、社会が未だに果たせていない課題です。物事を担う人間が、人命の保護よりも利益の追求を優先するという意識的な選択をする例は後を絶ちません。AIにそのような歪んだ優先順位を組み込むのは、決して驚くことではありません。そして、何か問題が起きた後、「ボットがやったんだ!」と主張するのです。
この「ジレンマ」の正しい解決策は人間の能力を超えていると言いたくなる。もしかしたら、絶滅を防ぐ唯一の方法は、超知能AIエージェントの指示に従うことかもしれない。GPT-20が登場する頃には、答えが得られるかもしれない。その時までにGPT-20がまだ私たちに語りかけているならの話だが。

タイムトラベル
30年前、私は『人工生命』という本を執筆しました 。この本は、生物を模倣し、ひょっとすると生物と同等の資格を持つかもしれない人工システムについて書かれたものです。私が話を聞いた研究者の多くは、こうしたシステムが高度な生命体へと進化し、意図的か否かに関わらず人類を滅ぼす可能性を認めていました。私はこのテーマについて人工生命の科学者たちと何度も議論を重ね、その一部は 1992年秋にWhole Earth Review誌に掲載されました。以下は、サンタフェ研究所の科学者ノーマン・パッカード氏へのインタビューの一部です。
スティーブン・レヴィ:これは潜在的に次の進化のステップであり、私たちは後継者を生み出しているのだ、と言われていると聞きました。
ノーマン・パッカード: そうです。
それはかなり重いものですよね?
中年の危機みたいなもの。いつかは必ず起こるもの。
ええ、私たちはいつか必ず死にます。でも、次の種を創造する必要はありません。この惑星ではまだ誰もそんなことはしていません。
おいおい。何十億年もの間、物事は他のものに置き換えられてきたんだぞ。
そうです、しかし彼らが作ったものによってではありません。
いいえ、彼らが作った物によってではありません。
それが可能だと信じているなら、それを実行するのが良い考えかどうか心配になりませんか?
いいえ、私は進化の過程が必然的であることをかなり宿命論的に強く信じています。
進化の事実は避けられないが、それがどこに向かうかは避けられないわけではない。
私が言いたいのは、全面的な核戦争や、数十億年という時間スケールでの進化の記録全体におけるそれら全ては、ほんの些細な出来事に過ぎないということです。生物圏は多少揺さぶられ、例えば私たちのような高等生命体の一部は一時的に完全に絶滅するかもしれませんが、どうせこのままでは、進化は続くでしょう。

一つだけ聞いてください
ジェイはこう問いかけます。「AI製品に対する大きな文化的反発(デジタル音楽からレコードへの移行など)は予想されますか?機械よりも人間を重視する製品は、人々の支持を得て市場シェアを獲得するでしょうか?」
いい質問ですね、ジェイ。AI規制の検討事項の一つに、コンテンツが機械によって生成されたかどうかを宣言するラベル付けの真実性に関するルールがあります(WIREDでも同じことをしています!)。それを知ることは基本的な権利のように思えます。(人間が何かを生成したからといって、それが正確で、偏見がなく、独創的であるとは限らないことを忘れてはなりません。)しかし、長期的にはAIがますます普及し、私たちが読んだり、聞いたり、見たりするものの多くが人間とボットのコラボレーションの成果となるにつれて、こうしたラベル付けは意味を失っていくかもしれません。
しかし、生身の人間が何かを制作したことを示すラベルは、私たちが大切に思うのも当然だと思います。フランスワインが高級な産地で栽培・収穫されたことを示す保護呼称の一つを想像してみてください。AIがますます進化するにつれ、人間が作ったものは、ロボットであるシェイクスピアやピカソの作品よりも技術的に劣るかもしれません。しかし、私たちが民芸品やファンキーな手縫いの服、手作りの料理を大切にするのと同じように、 ホモ・サピエンスが制作したタグ付きメディアにもそれ自体に価値があるかもしれません。しかし、レコードのように、おそらく価格は高くなり、ニッチな市場に追いやられるでしょう。
ご質問は[email protected]までお送りください。件名に「ASK LEVY」とご記入ください。

終末クロニクル
この冬グリーンランドを訪れるならビキニを持ってきてください。

最後になりましたが、重要なことです
AI アルゴリズムはすでに政府によって、人々の人生を変えるような決定を下すために使用されています。
ジレンマであろうとなかろうと、GPT-Chat は多くのオフィスの仕事の後に登場します。
人生の意味を失った哲学者たちはどうするだろうか?この哲学者は幻覚剤を服用した。
マーガレット・アトウッドはキツネになりたいと思っている。タイプライターを持ったキツネだったらいいのに。
