AIのゴッドファーザー、ジェフリー・ヒントン氏は、将来のAIを友好的に保つための希望に満ちた計画を持っている

AIのゴッドファーザー、ジェフリー・ヒントン氏は、将来のAIを友好的に保つための希望に満ちた計画を持っている

ジェフリー・ヒントンは、AIの危険性についてより自由に発言するためにGoogleを退社した。彼は、デジタルコンピューターではなくアナログコンピューターを開発することで、AIの信頼性をより高められると主張している。

ジェフリー・ヒントン

「AIのゴッドファーザー」として知られる、イギリス系カナダ人の認知心理学者でコンピューター科学者のジェフリー・ヒントン氏が、2023年6月28日、カナダのオンタリオ州トロントにあるエナーケアセンターで開催されたコリジョン・テック・カンファレンスで講演した。写真:GEOFF ROBINS/Getty Images

おそらく世界で最も著名な人工知能研究者であるジェフリー・ヒントン氏は、数ヶ月前、自身が開発に携わった技術の危険性について率直に語るためにGoogleを退社したことを公表し、大きな話題を呼んだ。彼の発表は唐突なものではなかった。2022年後半は、AIが私たちに何をもたらしてくれるのかという興奮の発見でいっぱいだった。2023年、私たちがGPTを使いBingでチャットしているときでさえ、その浮かれ気分は実存的不安というパニックカクテルで押し流されていた。そのため、「AIのゴッドファーザー」として知られる人物が、自身の思慮深い留保を共有することは、全くの驚きではなかった。ヒントン氏は、自分の批判は10年間自分を雇用してきた検索大手への批判ではないことを念頭に置いていた。彼の辞任は、会社が積極的に導入している技術を批判することで生じる可能性のある緊張を単に回避しただけだ。

ヒントン氏の基本的なメッセージは、AIが制御不能に陥り、人類に損害を与える可能性があるというものでした。彼は公の場に出て最初の数週間、WIREDのウィル・ナイト氏を含む複数のインタビューで、OpenAIのChatGPTのような大規模言語モデルの威力を目の当たりにし、比較的最近になってようやくその懸念を抱くようになったと語りました。

今年の夏の初め、ヒントン氏と個人的に話をする機会がありました。彼がGoogle退社後の人生と使命についてじっくり考える時間を持った後のことでした。もちろん、破滅的なシナリオについても話しましたが、私がもっと興味を持ったのは、AIの未来について彼が考えを変えた理由でした。何よりも、法学修士課程の学生たちが人間チームの敵になる可能性があると彼が考えている理由を知りたかったのです。ヒントン氏が今表明している懸念は、2014年に前回話したときとは大きく異なっています。当時、彼はディープラーニングがGoogleの翻訳の精度向上、音声認識の向上、Googleマップに表示される住宅の番地の精度向上に役立つだろうと話していました。会話の最後にようやく、彼はより広い視野を持ち、ディープラーニングは現実世界へのより深い理解につながる大きな改革を受けるだろうと述べました。

彼の予測は正しかったが、最近の会話では、ヒントン氏はそれがどのように起こったのか、いまだに不思議がっていた。やがて、私たちの会話はより哲学的な領域へと移っていった。GoogleのBardチャットボットのようなシステムが私の質問に答えたとき、実際には何が起こっていたのだろうか?そして、一部の人が主張するように、法学修士号は本当にエイリアン型の超知能の先駆けなのだろうか?

ヒントン氏は、3つのことに気づいた時に考えが変わったと言います。チャットボットは確かに言語を非常によく理解しているようです。モデルの新しい学習はすべて複製して以前のモデルに転送できるため、モデル間で知識を共有できます。これは、直接相互接続できない脳よりもはるかに簡単です。そして、機械は人間よりも優れた学習アルゴリズムを備えているのです。「突然、脳はデジタルエージェントよりも優れているという考えに変わりました」と彼は言います。「脳はすでに、どんな脳よりも1000倍も多くの知識を持っています。つまり、膨大な知識という点では、脳よりもはるかに優れているのです。」

ヒントン氏は、今後5年から20年の間にAIシステムが人間よりも賢くなる確率は50%だと考えている。そうなった時、私たちはどうやってそれを知るのかと尋ねると、「いい質問ですね」と答えた。そして、超知能AIシステムが自らの能力を秘密にしておくことを選んでも驚かないだろう。「おそらく、人間の行動から、私たちに教えないことを学んでいるのでしょう」

私には、彼が人工システムを擬人化しているように聞こえました。科学者は一般人やジャーナリストに、そうしてはいけないと常に言っています。「科学者はそうしないように細心の注意を払っています。ほとんどのものを擬人化するのは愚かだからです」とヒントン氏も認めています。「しかし、彼らは私たちからそれらのことを学んでいるでしょうし、言語的にも私たちと同じように振る舞うことを学ぶでしょう。ですから、彼らを擬人化するのは全く理にかなっていると思います」。強力なAIエージェントが、人間のデジタル知識の総体、つまり多くのオンライン会話も含めて訓練されているのであれば、それが人間らしく振る舞うことを期待しないのは、もっと愚かなことかもしれません。

しかし、チャットボットは人間の行動を真に理解することはできない、という反論はどうでしょうか。なぜなら、言語ロボットはコンピューターチップ上の単なるインパルスに過ぎず、世界を直接体験していないからです。結局のところ、彼らがやっていることは、プロンプトを統計的に満足させる応答を繋ぎ合わせるために必要な次の単語を予測することだけです。ヒントン氏は、私たち自身でさえ、実際には世界に直接遭遇しているわけではないと指摘しています。

「究極の障壁があると考える人もいます。それは、人間には主観的な経験があるのに(ロボットには)それがない、つまり私たちは物事を本当に理解しているのに、ロボットは理解していない、というものです」とヒントン氏は言う。「それは全くのナンセンスです。次の単語を予測するには、質問が何だったのかを理解しなくてはいけません。理解せずに次の単語を予測することはできないでしょう? もちろん、ロボットは次の単語を予測するように訓練されていますが、次の単語を予測することで、世界を理解するのです。それが唯一の方法だからです。」

では、それらのものは…知覚を持つことができるのでしょうか?ヒントンがブレイク・ルモワンのように私に向かってくるとは信じたくない。そして、そうではないと思います。「哲学者としての新しいキャリアを続けさせてください」とヒントンは冗談めかして言い、私たちは話をさらに深めました。「知覚や意識については置いておきます。私は実際には世界を直接知覚しているわけではありません。私が世界にあると思うものが、実際にそこに存在するものではありません。何が起こるかというと、それが私の心の中に浮かび、私は実際に私のの中にあるものを直接見ているのです。それがデカルトの考えでした。そして、私の心の中にあるものが現実世界とどのようにつながっているかという問題があります。そして、私は実際に現実世界をどうやって知るのでしょうか?」ヒントンは続けて、私たち自身の経験が主観的であるため、機械が同様に有効な独自の経験を持っている可能性を排除することはできないと主張します。「この見方によれば、これらのものはすでに主観的な経験を持っていると言うのは非常に合理的です」と彼は言います。

機械が世界を真に理解し、人間から欺瞞やその他の悪い習慣を学び、巨大なAIシステムが脳が処理できる量の何兆倍もの情報を処理できるようになるという可能性を、今一度考えてみてください。もしかしたら、ヒントン氏と同じように、あなたもAIの未来について、より不安な見通しを抱いているかもしれません。

しかし、私たちは必ずしも避けられない破滅への道を歩んでいるわけではない。ヒントン氏は、人間に対するAIのパワープレイを緩和できるかもしれない技術的アプローチを提案している。それは、生物学に見られるような、そして一部のエンジニアが将来のコンピューターの動作をこう考えているようなアナログコンピューティングだ。これはヒントン氏がGoogleで取り組んだ最後のプロジェクトだった。「人間のために機能するのです」と彼は言う。AIにアナログアプローチを採用することは、アナログハードウェアのインスタンスそれぞれに独自の特徴があるため、危険性が低いとヒントン氏は考える。私たち自身の湿った小さな心と同じように、アナログシステムはスカイネットのような集合知能に簡単に融合することはできないのだ。

「すべてをデジタル化するわけではない、というのが考え方です」と彼はアナログアプローチについて語る。「アナログハードウェアは一つ一つがわずかに異なるため、あるアナログモデルから別のアナログモデルに重みを転送することはできません。つまり、同じモデルの異なるコピーをいくつも作成して効率的に学習させる方法はないのです。もし(アナログコンピューティングを通じて)AGIを実現できたとしても、それは人間に非常に似たものになり、デジタルモデルほど多くの情報を吸収することはできないでしょう。」

LLMチャットボットの高性能化を競い合う大手テック企業が、AIに対するこのテクノヴィーガニズム的アプローチを採用する可能性は低いように思われる。競争は熾烈で、最も強力なボットを開発すれば莫大な報酬が得られるからだ。政治的見解を表明することにためらいのないヒントン氏は、大手上場企業やベンチャーファンドに支援されたスタートアップ企業が、公共の利益という安易な考えからAIイノベーションを阻害するとは考えにくいと述べている。

ヒントン氏によると、楽観的な日もあるという。「人間は非常に独創的で、まだ人間より賢くはない。人間のように意地悪で狭量な人間には進化していないし、自分の部族には非常に忠実で、他の部族には非常に不誠実な人間にもなっていない。だからこそ、私たちはそれを制御して慈悲深いものにすることができるかもしれない」。しかし、ヒントン氏は暗い気持ちになることもある。「おそらく私たちはそれを封じ込めることはできないだろうと思う時もある。私たちは知性の進化における単なる一過性の段階に過ぎないのだ」

そして、ジェフ・ヒントン氏の独特で模倣不可能なアナログニューラルネットワークが突如脱獄する。科学は沈黙し、彼の人間的な遊び心によって和らげられた政治が噴出する。「バーニーをリーダーに据え、社会主義を実現すれば、すべてはもっと良くなるだろう」と彼は言う。彼の元Googleマネージャーたちは、この件について責任を問われなくて済むことに安堵しているに違いない。

画像にはラベル、テキスト、シンボル、記号が含まれている可能性があります

タイムトラベル

2015年1月、私が執筆したバックチャネル記事(現在WIREDアーカイブ)では、ヒントン氏のチームの発見がいかにしてGoogle製品、そして世界全体に大規模に実装されようとしていたかを取り上げました。マウンテンビューのキャンパスに滞在できる時間が限られていたヒントン氏にインタビューの機会を得るには、かなりの懇願が必要でしたが、ついにインタビューを受けることができました。

「あなたの経歴について少しお伺いしたいのですが」とジェフリー・ヒントンは言った。「理系の学位はお持ちですか?」

カナダ出身の英国人、筋骨隆々で辛口なヒントン氏は、カリフォルニア州マウンテンビューにあるグーグルのキャンパスでホワイトボードの前に立っている。ヒントン氏は2013年に特別研究員として同社に入社した。ヒントン氏は、1980年代半ばに自らが開発に貢献した人工知能技術、ニューラルネットワークシステムにおいて、おそらく世界屈指の専門家だろう(彼はかつて、16歳の頃からニューラルネットについて考えていたと語っている)。それ以来、人間の脳の学習方法を大まかに模倣したニューラルネットは、コンピューターが視覚や自然言語といった難しい事柄を習得するための有望な手段とされてきた。この革命の到来を何年も待ち望んだ後、人々はその約束が果たされるのかどうか疑問に思い始めた。

しかし約10年前、トロント大学のヒントン研究室で、彼と他の研究者たちが画期的な進歩を遂げ、ニューラルネットは突如としてAIの最もホットな話題となった。Googleだけでなく、Facebook、Microsoft、IBMといった企業も、人工ニューロンを複数層に組織化するという黒魔術に精通した、比較的少数のコンピュータ科学者を必死に追い求めるようになった。この黒魔術によって、システム全体を訓練し、あるいはシステム自体を訓練し、ランダムな入力から一貫性を推測できるようにするのだ。まるで新生児が未熟な感覚に流れ込むデータを整理する方法を学ぶように。ディープラーニングと呼ばれるこの新しく効果的なプロセスによって、長年の計算の行き詰まり(例えば、見たり、聞いたり、ブレイクアウトで無敵になることなど)のいくつかがついに解消されるだろう。長らく待ち望まれ、そして長らく恐れられていたインテリジェントコンピュータシステムの時代が、突如として私たちのすぐそばに迫ってくるだろう。そして、Google検索ははるかに使いやすくなるだろう。

画像にはシンボルが含まれている可能性があります

一つだけ聞いてください

パスカルは問いかける。「近い将来、80歳になるベビーブーマー世代の高齢者は、介護施設でどのような一日を過ごすことになるだろうか? チャットボットは、孤立した高齢者にとって、人間との接触を部分的に代替する日が来るだろうか? テクノロジーは本当に解決策になるのか、それとも一時的な応急処置に過ぎないのか?」

パスカルさん、質問ありがとうございます。[email protected] に「ASK LEVY」という件名で質問を投稿してくださった皆さんにも感謝します。先週のちょっとした呼びかけが功を奏しました!これからもどんどん投稿してくださいね!

パスカルさん、まさにタイムリーな質問ですね。高齢者向けチャットボットを開発しているスタートアップ企業はおそらく100社もあるでしょうから。あなたの言い回しからすると、実際の人間との接触に代わるものはない、という感じがしますね。もちろんその通りです。理想を言えば、人生の晩年は友人や親戚との愛情あふれる交流の中で過ごすべきです。しかし現実には、何百万人もの高齢者が介護施設で人生の最期をほとんど人との接触なしに過ごしています。テクノロジーによって、そのような人々に魅力的な交友関係を感じさせることができるのか、という疑問は当然です。人間の介護者を模倣できるチャットボット、あるいは友人のような存在の登場は、確かに間近に迫っています。もし、そのようなチャットボットと、まるで地獄のようなケーブルチャンネルを流しているテレビのどちらかを選ぶとしたら、自分の好きな科目に精通し、意味のない素敵な思い出や長々とした逸話に文句も言わず耳を傾け、反応してくれるような、機知に富んだ法学修士号(LLM)取得者を否定するのは残酷でしょう。

しかし、私はもっと大きな希望を抱いています。もしかしたら、高度なAIが医学の分野で発見をもたらし、人生の後半も人々の健康を維持してくれるかもしれません。そうすれば、人々はより長く活動的でいられるようになり、孤立した老人ホームや施設で過ごす時間が減るかもしれません。もちろん、これでは高齢者への私たちの恥ずべき無関心は解決されません。故ジョン・プラインの言葉を借りれば、「老人はただ孤独になり、誰かが『こんにちは、こんにちは』と言ってくれるのを待っているだけ」です。チャットボットがそう言ってくれるのは、何もないよりはましでしょう。

ご質問は[email protected]までお送りください。件名に「ASK LEVY」とご記入ください。

AIのゴッドファーザー、ジェフリー・ヒントンが将来のAIフレンドリーな環境を維持するための有望な計画を語る

終末クロニクル

マウイ島が炎上する中、住民や観光客は海へ避難した。

画像にはラベル、テキスト、シンボル、記号が含まれている可能性があります

最後になりましたが、重要なことです

私はグライムスと一緒に公園で水曜日を過ごし、AI、火星、NFT、彼女の近日発売予定の『Transhumanism for Babies』、LSD、そしてご存知のあの人について話しました。

インテルのチップに、数百万人のプライバシーを侵害する脆弱性があったことが判明しました。Downfallと呼ばれるチップに、他に何を期待できるというのでしょうか?

大手テクノロジー企業にうんざりしていませんか?彼らのクラウドから脱却する運動に参加しませんか。

ヒップホップは50周年を迎え、人々はその歴史を保存する必要性に気づき始めています。そして、スミソニアン博物館もその取り組みに加わっています。

画像にはロゴ、シンボル、商標、テキスト、ラベルが含まれている場合があります

このコラムの今後の購読者限定版をお見逃しなく。WIRED を今すぐ購読しましょう(Plaintext読者は50%オフ)

スティーブン・レヴィはWIREDの紙面とオンライン版で、テクノロジーに関するあらゆるトピックをカバーしており、創刊当初から寄稿しています。彼の週刊コラム「Plaintext」はオンライン版購読者限定ですが、ニュースレター版はどなたでもご覧いただけます。こちらからご登録ください。彼はテクノロジーに関する記事を…続きを読む

続きを読む