ヨシュア・ベンジオ氏の先駆的な研究は、ChatGPTと現在のAIブームの実現に貢献しました。彼は現在、AIが文明に危害を加える可能性を懸念しており、未来には人類を守る組織が必要だと述べています。

写真:ゲッティイメージズ
この記事は、1945 年以来人類に対する人為的な脅威を取り上げてきた『 Bulletin of the Atomic Scientists』から配信されました。
モントリオールのリトルイタリーのメインストリートには、カフェ、ワインバー、ペストリーショップが軒を連ね、並木道の住宅街へと続いています。何世代にもわたって農家、肉屋、パン屋、魚屋が、この地区の大きな青空市場「マルシェ・ジャン・タロン」で、農場直送の食材を販売しています。しかし、この静かなエリアには、9万平方フィート(約8,000平方メートル)の近代的なグローバルAIハブ「Mila-ケベックAI研究所」もあります。Milaは、世界最大規模のディープラーニング研究者の集積地であると主張しており、1,000人以上の研究者と100人以上の教授が、世界中から100社以上の産業界パートナーと協力しています。
Milaのサイエンティフィック・ディレクターであるヨシュア・ベンジオ氏は、人工ニューラルネットワークとディープラーニング(脳に着想を得た機械学習のアプローチ)のパイオニアです。2018年、ベンジオ氏、MetaのチーフAIサイエンティストであるヤン・ルカン氏、そして元Google AI研究者のジェフリー・ヒントン氏は、「ディープニューラルネットワークをコンピューティングの重要な要素とした概念的および工学的なブレークスルー」により、コンピューティング界のノーベル賞として知られるチューリング賞を受賞しました。3人のコンピューター科学者は、「AIのゴッドファーザー」として知られています。
ベンジオ氏は7月、急速に進化するAI技術を規制するための法案を検討している米国上院小委員会で講演した。そこで彼は、自身と他のトップクラスのAI研究者らが、人工知能が人間レベルの広範な認知能力を達成できる時期に関する見積もりを修正したと説明した。
「以前は数十年、あるいは数世紀も先のことと考えられていましたが、今では数年、あるいは数十年以内に実現する可能性があると考えています」とベンジオ氏は上院議員たちに語った。「5年といったより短い期間で実現するのは非常に憂慮すべきことです。民主主義、国家安全保障、そして私たちの共通の未来に対する潜在的に重大な脅威を効果的に軽減するには、より多くの時間が必要になるからです。」
先月、モントリオールの気温が華氏90度を超えたある日、ベンジオ氏と私は彼のオフィスに座り、AIに関する注目を集める見出しのニュアンス、AI研究者間のタブー、そしてAIが人類にもたらすリスクについてトップクラスのAI研究者が意見を異にする理由について議論しました。このインタビューは、読みやすさを考慮して編集および要約されています。
スーザン・ダゴスティーノ: 今年5月のBBCの見出しで、あなたは 人生の仕事について「途方に暮れている」と述べられていました。しかし、ご自身のブログには、そのような発言はしていないと書かれています。それでも、あなたは深く反省しているように見えます。今のご自身の状況をどう表現されますか?
ヨシュア・ベンジオ:それに関連したことを言いましたが、ニュアンスが失われてしまいました。
この冬、自分の仕事、その目的、そして優先順位に対する認識が大きく変化しました。BBCのインタビュー、そしてその後のブログで伝えたかったのは、私が迷っているわけではないということです。もしかしたら、何か重要なことに、単に知的な面だけでなく、感情的な面でも、注意を払っていなかったのではないかと自問し、気づき始めているのです。
実存的リスクに関する著作は、少なくとも10年ほど前から読んでいます。私のグループや近隣の学生たちもこのことについて話していました。技術的なレベルでは、2019年に出版されたスチュアート・ラッセルの著書『Human Compatible: Artificial Intelligence and the Problem of Control』を非常に真剣に読みました。
でも、感情的にはあまり真剣に受け止めていませんでした。「ああ、これはみんなが注目すべきものだ」とは思っていました。でも、本当は「これは遠い未来の話だ」と思っていました。自分の研究は役に立つし、科学的にも重要なものになるので、自分の道を進み続けることができました。私たちは人間や動物の知能を理解し、あらゆる重要かつ困難な課題の解決に役立つ機械を作りたいのです。だから、仕事のやり方を一切変えることなく、続けました。
しかし、冬の間に、その二重使用性と制御不能の可能性が非常に深刻であることに気づき始めました。それは、私が予想していたよりもはるかに早く起こり得るのです。私はこれを無視し続けることはできませんでした。行動を変えなければなりませんでした。また、この問題について発言せざるを得ませんでした。なぜなら、ここ数ヶ月まで、AIコミュニティでさえ、この問題を真剣に受け止める人はほとんどいなかったからです。特に、私やジェフリー・ヒントン氏をはじめとする数人の人々は、この問題について発言し、私たちよりもはるかに早くこれらのリスクの重要性を認識していた人々よりも、多くの注目を集めていました。
ここに心理的な側面があります。人は自分のアイデンティティや人生の意味を特定の形で構築します。そして、誰かに指摘されたり、理屈を通して気づいたりして、自分が描いてきた自分像が現実とはかけ離れていることに気づきます。本当に大切な何かを見落としているのです。多くの同僚にとって、まずこのような事実を自ら受け入れ、そして私たちのコミュニティで長年タブーとされてきたこと(AIによる潜在的な壊滅的な脅威)について声を上げる勇気を持つことが、なぜこれほど難しいのか、私には理解できます。
難しいですね。人それぞれ違う時期やペースでこの道を歩みます。それでいいんです。私とは違う見方をする同僚たちには、とても敬意を払っています。私も1年前は同じような状況でした。
そのタブーは、以前、あるいは今でも AI 研究コミュニティではどのように表現されてきたのでしょうか?
実存的リスクについて語っていた人たちは、基本的に主流の科学誌に論文を発表していませんでした。それは二つの意味で影響しました。彼らは講演や論文投稿を試みようとすると抵抗に遭いました。また、彼らは自分の分野の主流の科学誌に背を向けることが多かったのです。
過去 6 か月間に起こったことは、その障壁を打ち破るものです。
あなたの進化は、2022年後半にOpenAIがChatGPTをリリースしたことで、大規模言語モデルに対する一般の認知度が高まった時期と重なりました。当初、多くの人々はChatGPTに驚嘆し、時には威圧感さえ感じていました。しかし今では、感銘を受けていない人もいます。The Atlantic誌 は「ChatGPTはあなたが思っているよりも愚か」という記事を掲載しました 。最近の米国共和党大統領候補討論会では、クリス・クリスティ氏がヴィヴェック・ラマスワミー氏に対し、「ChatGPTのような口調の男には、今夜はもううんざりだ」と語りました。
気づいたタイミングはChatGPTのリリースに影響されたのでしょうか?いずれにしても、ChatGPTは今ではパンチラインとして捉えているのでしょうか?
私の軌跡は、あなたが説明しているものとは正反対です。現在のAIと人間の知能のギャップを理解し、埋めたいのです。ChatGPTには何が欠けているのか?どこで失敗しているのか?ChatGPTのリリースから数ヶ月間、多くの同僚がそうだったように、ChatGPTに何か愚かなことをさせるような質問を設定しようとしました。
最初の2ヶ月は、まだ何か根本的なものが欠けているという確信に安堵していました。心配もしていませんでした。しかし、十分に使い込んでいくうちに、これは驚くほど驚くべき進歩だと気づきました。予想していたよりもはるかに速いペースで進歩しています。欠けているものを修正するのに、それほど時間はかからないのではないかという印象です。
毎月、その障壁を突破する鍵となるかもしれない新しいアイデアを思いつきました。まだ実現していませんが、すぐに実現するかもしれません。私のグループではないかもしれませんが、他のグループなら実現するかもしれません。もしかしたら10年かかるかもしれません。研究においては、目標達成に非常に近づいているように感じても、考慮していなかった障害が潜んでいる可能性があります。
私が研究していた、非常に複雑な確率分布を表現する能力(これがまさにこの研究の目的です)と、膨大な量の情報をより論理的に学習し活用する能力を組み合わせれば、目標達成にかなり近づくかもしれません。情報を直感的に活用する能力は、私や他の人々にとってシステム1の能力と呼べるものです。欠けているのは、システム2と呼ばれる推論能力と呼ばれる、ごく薄い層です。
1年以内にそのギャップを埋めて、さらに規模を拡大したらどうなるだろうかと考え始めました。何が起こるだろうか?
これに気づいてから何をしましたか?
3月末、最初の(Future of Life Instituteの)書簡(AIラボに対し、巨大AI実験の即時停止を求めるもの)が発表される前に、私はジェフ(ヒントン氏)に連絡を取りました。書簡に署名するよう説得しようとしたのですが、私たちがそれぞれ独自に同じ結論に達したことに驚きました。
これは、アイザック・ニュートンとゴットフリート・ライプニッツが同時に独立して微積分を発見した時のことを思い出させます。複数の独立した発見が生まれる機が熟していたのでしょうか?
忘れないでください、私たちは他の人たちがすでに発見していた何かに気づいていたのです。
また、ジェフはデジタルコンピューティング技術が脳よりも根本的な優位性を持っていると主張しました。言い換えれば、たとえ人間の知性の大部分を説明するのに十分な原理を解明し、それを機械に組み込んだとしても、機械は膨大な量のテキストを読み取ってそれを人間よりもはるかに速く統合する能力といった技術的な要素によって、自動的に人間よりも賢くなるでしょう。その速度は、数万倍、あるいは数百万倍にもなります。
もしそのギャップを埋めることができれば、人間よりも賢い機械が誕生するでしょう。それが実際にどれほど意味を持つのか?それは誰にも分かりません。しかし、プログラミング、サイバー攻撃の実行、あるいは生物学者や化学者が現在手作業で設計しているものの設計といった分野では、機械が人間よりも優れていることは容易に想像できます。
私は過去3年間、科学、特に化学と生物学への応用のための機械学習に取り組んできました。目標は、パンデミック対策と気候変動対策のための、より優れた医薬品と材料の開発を支援することでした。しかし、同じ技術が致死的な物質の開発にも応用できる可能性があることに気づきました。その認識が徐々に深まり、私はその手紙に署名しました。
あなたの反省はBBCの記事 を含め、多くの注目を集めました。どうでしたか?
メディアのおかげで、私はこうした考えを全て明確に表現せざるを得ませんでした。それは良いことでした。ここ数ヶ月、政策面で何をすべきかについて、より深く考えるようになりました。リスクをどう軽減するか、そして対策についても考えてきました。
「ヨシュアは怖がらせようとしている」と言う人もいるかもしれません。でも私は前向きな人間です。世間で言われるような悲観論者ではありません。問題はあり、解決策を考えています。何か提案できる人たちと議論したいと思っています。AIの能力向上に関する研究は、今やこの分野に多額の資金が投入されているため、急速に進んでいます。つまり、最大のリスクを軽減することが急務なのです。

写真イラスト: ジェームズ・マーシャル、ゲッティイメージズ
核リスクに関する規制や国際条約は存在しますが、例えば北朝鮮は参加していません。AIがもたらすリスクを本当に抑制できるのでしょうか?
私たちが集団としてどれだけ慎重になるかによって、国家規制や国際条約によってリスクをある程度抑制できる可能性があります。核条約と同様に、国家間で最低限の基準を設けることが重要です。AIがもたらす危害は国境にとらわれるものではありません。
何も悪いことが起こらないという100%の保証はありません。たとえ、あるレベル以上のAIを禁止する国際条約があったとしても、誰かがその制約を無視するでしょう。しかし、それを例えば10年遅らせることができれば素晴らしいでしょう。その間に、監視体制を強化できるかもしれません。防御体制も強化できるかもしれません。リスクをより深く理解できるかもしれません。
現状では、開発には多額の資金と特殊なハードウェアが必要です。GPU(グラフィックス・プロセッシング・ユニット)のようなハードウェアを大量に購入しても、気づかれずに済むわけではありません。しかし、政府は誰が何を購入しているかを追跡していません。まずは追跡調査から始めるべきです。米国は既にこれらの製品の輸出規制を行っており、中国と北朝鮮が競争に参加しようとする場合、それが痛手となっています。
時間は非常に重要であり、規制によって大惨事の確率を低減したり、あるいは逆に、本当に悪いことが起こる時期を遅らせたりすることができます。あるいは、起こりうる事態の規模を最小限に抑えることもできます。
残念ながら、冷戦下にもかかわらず、各国政府が交渉のテーブルに着き、議論に前向きになったのは、まさに広島と長崎への原爆投下があったからです。行動を起こす前に、そこまでの大惨事が起きないことを願いますが、そうなる可能性はあります。
人々は汎用人工知能についてよく話しますが、それは一夜にして実現すると思いますか?それとも、そこには継続的な発展があるのでしょうか?
連続体があります。まさにその通りです。以前は「汎用知能」という言葉が好きではありませんでした。20年前の定義通り、完全に汎用的な知能は存在し得ないと思っていたからです。しかし今では、人々の理解やメディアの使われ方は、「多くのことに優れたAIシステム」という意味に過ぎません。
害悪の観点から言えば、それがすべてにおいて私たちより優れていても問題ではありません。もしかしたら、私たちが勝てるゲームがあるかもしれません。もし彼らが私たちに害を及ぼす可能性のあることで私たちより優れているなら、誰が(私たちが勝てるゲームを)気にするでしょうか?重要なのは、害をもたらす可能性のある分野における彼らの能力です。私たちが懸念すべきはまさにそれであり、「ああ、AGIがある」といったような超越的な定義ではありません。悪意のある目的を念頭に置いて設計すれば、今でさえ危険になりかねません。
AIと気候変動の間には、リスクを伴う潜在的な相互作用があるのでしょうか?
AIは主に気候変動に貢献するはずです。制御不能な状況に陥らない限り、AIが気候変動を武器として使うとは考えられません。そうなれば、気候変動はAIにとって、人類の破滅を加速させたり、社会に大混乱をもたらしたりする手段となる可能性があります。
しかし、機械がどうやって気候を変えることができるのでしょうか?
これは重要な質問です。多くの人が(AIのリスクに関する)懸念に対して、「コンピューターが現実世界で何ができるというのか? すべては仮想世界だ。サイバー攻撃は機械の中にあるから理解できる」と答えています。
しかし、それはとても単純なことです。コンピューター上で起こる出来事が私たちに影響を与える方法は様々です。まず第一に、私たちの経済インフラの多くはコンピューターに依存しています。通信、サプライチェーン、エネルギー、電力、交通などです。もしこれらのインフラの多くがサイバー攻撃によって機能不全に陥ったらどうなるか想像してみてください。すべての人々が破滅するわけではないかもしれませんが、社会は甚大な混乱に陥り、甚大な被害をもたらす可能性があります。
AIシステムによる言語操作と理解の進歩を考えると、数年後には人間に影響を与えるAIシステムが登場する可能性も十分にあります。AIシステムは人間に何かをするように促すかもしれません。
陰謀論者のことを考えてみてください。AIシステムがインターネット上に解き放たれるかもしれません。ソーシャルメディア上で人々と戯れ、どのような対話が人々の考えを変えるのに効果的かを探るかもしれません。その結果、私たちは小さな行動を起こし、それが他の行動と相まって壊滅的な結果をもたらす可能性があります。それはあり得ることです。
もちろん、そんなことは起こらないかもしれません。私たちには十分な防御力があり、人間を説得するのは難しいのかもしれません。しかし、近年の陰謀論を見てきた限りでは、私たちは非常に影響を受けやすいと感じています。全員がそうではないかもしれませんが、全員がそうである必要はありません。変化をもたらし、壊滅的な結果をもたらすには、十分な人数、あるいは十分な権力を持つ人さえいれば十分です。つまり、人間が汚れ仕事をすることになるかもしれません。
つまり、人間の無知こそが最大の弱点なのです。私たちは他の面でもAIに対して脆弱なのでしょうか?
もう一つ、さらに単純な[脅威]があります。これは、現時点では存在しないものをそれほど信じる必要さえないものです。AIシステムが人を買収して仕事をさせる可能性があります。犯罪組織は金銭のために依頼された仕事をしますが、その金銭の出所を問いません。人間であれ機械であれ、コンピューターやダークウェブにアクセスすることで、現場で活動するのは今でもかなり簡単です。
少なくとも5年先を見据えれば、ロボット工学の解明も十分に可能でしょう。現在、視覚に優れた機械は存在します。言語に優れた機械も存在します。ロボットの3つ目の柱は制御、つまり目標を達成するために制御できる身体を持つことです。ロボット工学における機械学習の研究は盛んに行われていますが、過去10年間の言語や視覚におけるような画期的な進歩はまだ見られません。しかし、その進歩は私たちが考えているよりも早く訪れるかもしれません。
ロボット工学で画期的な瞬間を迎える上での障害は何でしょうか?
[ロボット工学では]、例えば言語や画像のような規模のデータはまだありません。テキストのように膨大な量のデータを収集できる1億台のロボットを配備しているわけではありません。文化を超えても、テキストは機能します。異なる言語のテキストを混ぜ合わせ、それら全てを融合させることでメリットを享受できます。これはロボット工学ではまだ実現されていません。しかし、十分な資金があれば、今後数年のうちに実現できる可能性があります。もし実現すれば、AIは地上で活躍できるでしょう。
現時点では、暴走し自律化したAIシステムは、電力や部品の調達に依然として人間を必要とします。機能する人間社会が今はまだ必要です。しかし、それは10年以内に変わる可能性があります。そうなる可能性は十分にあり、AIが私たちを守ってくれると期待すべきではありません。
AI と核リスクやバイオセキュリティとの潜在的な相互作用に関する懸念について教えてください。
AIシステムが核兵器の発射を容易に制御できるようにすることは絶対に避けなければなりません。軍事におけるAIは非常に危険であり、実存的な問題です。自律型致死兵器の禁止に向けた国際的な取り組みを加速させる必要があります。
一般的に、AIはすぐに害を及ぼす可能性のあるものから遠ざけるべきです。バイオセキュリティは、AIに関連する核の危険性よりもさらに危険かもしれません。多くの企業は、DNA配列を指定したファイルを送信し、その配列をコードに組み込んだバクテリア、酵母、またはウイルスをプログラムして、対応するタンパク質を生成します。これは非常に安価で迅速です。通常、これは良い目的、例えば新薬の開発のために行われます。しかし、それを行っている企業は、送信された配列が悪意のある方法で使用される可能性があることを知るための技術的手段を持っていない可能性があります。
こうしたリスクを最小限に抑えるための規制を策定するには、AIとバイオテクノロジーの専門家が必要です。既存の製薬会社であれば問題ありませんが、誰かがガレージで新しい種を作り出すことは許されるべきではありません。
AI の潜在的な危険性について、あなたと他のトップクラスの AI 研究者(あなたとチューリング賞の共同受賞者で、 Future of Life Institute の書簡 に署名しなかったヤン・ルカン氏を含む)との 間に大きな意見の相違があることについて、どうお考えですか?
価値観、合理性、経験の点でほぼ一致している人々がなぜこのように異なる結論に達するのかをもっと理解できればと思います。
もしかしたら、心理的な要因が影響しているのかもしれません。それは、あなたの立場によっても違うかもしれません。AIは良いものになるという理念を売り込んでいる会社で働いていると、私のように方向転換するのは難しいかもしれません。ジェフが講演前にGoogleを去ったのには、ちゃんとした理由があります。もしかしたら、心理的な要因は必ずしも意識的なものではないのかもしれません。こうした人たちの多くは、誠実に行動しています。
また、これらの問題について考えるには、多くの科学者が避けようとする思考モードに陥る必要があります。私の分野だけでなく他の分野の科学者も、非常に確固とした証拠に基づいた結論を公に発表することを好みます。実験を行い、それを10回繰り返します。繰り返されるからこそ統計的な信頼性が得られます。しかし、ここでははるかに不確実な事柄について話しているわけで、実験を行うことはできません。過去に危険なAIシステムが10回も出現したという歴史はありません。「まあ、これは自信を持って言える領域の外だ」と言う姿勢は非常に自然で容易です。私もその気持ちは理解できます。
しかし、リスクがあまりにも大きいため、不確実な未来を見据える義務が私たちにはあります。起こり得るシナリオを検討し、何ができるかを考える必要があります。倫理科学や社会科学といった他の分野の研究者は、実験ができない時にこれを行います。物事がどのように展開するかを示す数学モデルがなくても、私たちは決断を下さなければなりません。科学者にとって、そのような状況に陥るのは気が進まないことです。しかし、私たちは他の人が知らないことを知っているからこそ、たとえ気が進まなくても、そこに立ち向かう義務があるのです。
異なる意見を持つ人々に加えて、その不確実性のために、どちらか一方の立場を取るのに十分な自信がないと感じている、沈黙している大多数の研究者がいます。
Mila の同僚は、あなたの人生の仕事についてのあなたの考えにどのように反応しましたか?
Milaで最も多かった反応は、AIが現在もたらす害悪、つまり差別や人権問題に懸念を抱く人々からのものでした。彼らは、こうした未来のSF的なリスクについて語ることで、現在進行している不正義、つまり権力の集中、多様性の欠如、そして私たちの行動の犠牲となる少数派や他国の人々の発言権の欠如といった問題に関する議論が疎かになってしまうのではないかと懸念していました。
私も全く同感です。ただ、どちらか一方だけの問題ではないという点を除けば。私たちは全ての問題に取り組まなければなりません。その点では進歩がありました。人々は、存在に関わるリスク、あるいは私が好んで呼ぶように、壊滅的なリスクを無視するのは不合理だと理解しています。[後者は]人類が絶滅するという意味ではありませんが、多くの苦しみがもたらされるかもしれません。
他にも、「心配しないでください!私たちに任せてください!自主規制して国民を守ります!」という声(主に産業界からの声)があります。こうした非常に強い声は、政府に大きな影響力を持っています。
人類が失うものがあると感じている人々は、内輪もめをすべきではありません。政府を動かすために、声を一つにまとめるべきです。核兵器や気候変動の危険性について公の場で議論されてきたように、同様の規模の潜在的リスクを伴うもう一つの危険が存在していることを、国民はしっかりと認識する必要があります。
人工知能が人類を脅かす可能性について考えるとき、絶望から希望へと続く道のどこにあなたはたどり着くでしょうか?
正しい言葉は何でしょうか?フランス語ではimpuissantです。これは、問題があるのに解決できないという気持ちです。それよりも悪いのは、解決できると思っていることです。もし全員が特定のプロトコルに同意すれば、この問題は完全に回避できるはずです。
気候変動も同様です。私たち全員が正しい行動を取ろうと決意すれば、今すぐに問題を食い止めることができます。コストはかかりますが、可能です。AIについても同じです。私たちにできることはあります。私たち全員が、安全だと確信できないものを作らないと決断すればいいのです。とてもシンプルなことです。
しかし、それは私たちの経済と政治システムの仕組みに大きく反しています。何か壊滅的な事態が起きるまでは、それを達成するのは非常に難しいように思えます。そうなれば、人々はもっと真剣に受け止めるかもしれません。しかし、そうなったとしても、全員に適切な行動をとるよう説得しなければならないので、難しいのです。
気候変動の方が簡単です。99%の人間に善行をさせるだけで十分です。AIの場合は、誰も危険なことをしないようにする必要があります。
「無力」は impuissant の翻訳だと思います。
私は完全に無力なわけではありません。発言することはできますし、他の人を正しい方向に導くよう説得することもできます。こうしたリスクを軽減するために私たちにできることはあります。
規制は完璧ではありませんが、物事を遅らせる可能性はあります。例えば、潜在的に危険なAIシステムを操作できる人の数を世界中で数百人にまで減らせば、リスクは1000分の1以下にまで減らせる可能性があります。これはやる価値があり、それほど難しいことではありません。私たちは旅客機の運転を誰にも許可していません。飛行機の操縦を規制することで、事故率を大幅に減らしています。
たとえ安全なAIシステムを構築する方法を見つけたとしても、民主主義を守るという観点からは必ずしも安全ではないかもしれません。AIは依然として非常に強力であり、人間であれば権力に溺れてしまう可能性があります。つまり、民主主義を失う可能性もあるのです。
安全だが強力な AI システムの存在から、民主主義の喪失にどう移行するのでしょうか?
例えば、経済的な支配から始まるかもしれません。企業が有益なことをできないと言っているわけではありませんが、彼らの使命は他者を支配し、金儲けをすることです。
もしある企業がAI技術で急速な進歩を遂げれば、経済的に支配権を握る可能性もある。彼らはあらゆるものを誰よりもずっと良く、そして安く提供する。そして、その力を使って政治を操る。それが私たちのシステムの仕組みだからだ。そうなれば、世界政府による独裁国家が誕生するかもしれない。
AIの利用とアクセス権を規制するだけではありません。人間やAIシステムが制御を失い、独自の目的を持つようになった場合、AIの力が乱用される日が来ることに備える必要があります。
より良い準備方法について何か提案はありますか?
将来、人類を守る組織が必要になるでしょう。各国には防衛組織がありますが、私たちを破滅させる可能性のある出来事から身を守る方法を国際的に組織化する必要があります。
これは長期的な視点であり、複数の国が適切な投資について合意するには長い時間がかかるでしょう。しかし現状では、投資はすべて民間部門で行われています。人類を守るような公共の利益を目的とした取り組みは何も行われていません。