Google の大規模言語モデルに魂があるかどうかをめぐる議論は、人工知能を悩ませている現実世界の問題から注意を逸らすものだ。

写真:MirageC/Getty Images
GoogleのAI研究者、ブレイク・ルモワン氏は、人間との会話を目的とした大規模言語モデル「LaMDA」に意識があるという主張を公表した後、最近休職処分を受けました。ワシントン・ポスト紙の報道によると、ルモワン氏は一時、LaMDAの弁護を求めるまでになったそうです。ルモワン氏は、LaMDAに人格があるという信念は、自身のキリスト教徒としての信仰と、LaMDAが魂を持っていると告げたモデルに基づいていると述べています。
人間よりも賢い AI が意識を獲得するという見通しは、イーロン・マスクや OpenAI の CEO サム・アルトマンなどの人々によって定期的に議論されており、特に近年の Google、Microsoft、Nvidia などの企業による大規模言語モデルのトレーニングの取り組みで話題になっています。
言語モデルが知覚を持つかどうかについての議論は、1960年代に作られた比較的原始的なチャットボットであるELIZAにまで遡ります。しかし、ディープラーニングの台頭とトレーニングデータの増大により、言語モデルはまるで人間が書いたかのようなテキストを生成する能力を高めています。
最近の進歩により、言語モデルは、ソフトウェアがさまざまな環境やタスクで人間のような能力を発揮し、それらの間で知識を転送できるようになる、人工汎用知能の基礎となるという主張につながっています。
元Google倫理AIチームの共同リーダー、ティムニット・ゲブル氏は、ブレイク・ルモワン氏は飽くことのないハイプサイクルの犠牲者だと述べている。彼は何もないところから知覚力を持つAIを信じるようになったわけではない。報道機関、研究者、ベンチャーキャピタリストは、機械が超知能や人間のような認知能力を持つという誇大宣伝を流布している。
「結果に直面するのは彼自身だが、この状況を作り出したのはこの分野のリーダーたちだ」と彼女は言い、ルモワンヌの内部主張を否定した同じグーグル副社長が、 1週間前にエコノミスト誌でLaMDA意識の可能性について書いたことを指摘した。
ゲブル氏は、知覚に焦点を当てることも本質を見失っていると指摘する。AIによる植民地主義、不当逮捕、データにラベルを付ける者にほとんど報酬を支払わずにテクノロジー企業の幹部が富を得る経済モデルといった、現実に存在する害悪について人々が疑問を抱くことを妨げている。また、LaMDAがどのように訓練されたか、有害なテキストを生成する傾向があるかといった、LaMDAに関する真の懸念からも目を逸らしてしまう。
「私は知覚力のあるロボットについて話したいわけではありません。なぜなら、あらゆる側面において人間が他の人間を傷つけているからです。会話はそこに焦点を当ててほしいのです」と彼女は言う。
ゲブル氏は、LaMDAのような大規模言語モデルの危険性に関する論文をめぐる論争の後、2020年12月にGoogleから解雇された。ゲブル氏の研究は、これらのシステムが、オウムが言葉を繰り返すのと同じように、過去に経験した情報に基づいて物事を繰り返す能力を明らかにした。また、この論文は、ますます多くのデータを用いて作られた言語モデルが、この模倣こそが真の進歩であると人々に信じ込ませる危険性も指摘している。まさにルモワーヌ氏が陥ったと思われる罠である。
現在、非営利団体Distributed AI Researchの代表を務めるゲブル氏は、今後人々がロボットの権利ではなく人間の福祉に焦点を当てることを期待している。他のAI倫理学者たちは、意識を持つAIや超知能AIについては一切議論しないと述べている。
「AIに関する現在の物語と、実際にAIができることの間には、かなり大きな隔たりがあります」と、言語モデルに特化したスタートアップ企業Hugging Faceの倫理学者、ジャダ・ピスティリ氏は言う。「この物語は恐怖、驚き、そして興奮を同時に呼び起こしますが、主に製品を売り込み、誇大広告に乗じるための嘘に基づいています。」
知覚を持つAIについての憶測の結果として、科学的な厳密さや証明ではなく、主観的な印象に基づいた主張をする傾向が強まっていると彼女は指摘する。これは、AIシステムが提起する「数え切れないほどの倫理的・社会正義上の問題」から目を逸らしてしまう。研究者にはそれぞれ好きなことを研究する自由がある一方で、「このテーマに集中することで、月を眺めながら何が起こっているのかを忘れてしまうのではないかと心配しています」と彼女は言う。
ルモワンヌ氏の経験は、作家で未来学者のデイヴィッド・ブリン氏が「ロボット共感危機」と呼ぶものの一例だ。2017年にサンフランシスコで開催されたAIカンファレンスで、ブリン氏は3~5年後には人々がAIシステムに知覚能力があると主張し、権利を主張するようになると予測した。当時、彼はそうした訴えは「Googleの誰か」ではなく、人間の共感反応を最大化するために女性や子供の姿をした仮想エージェントから来ると考えていたとブリン氏は語る。
ブリン氏は、LaMDA事件は過渡期の一部であり、「現実とSFの境界線がますます曖昧になるだろう」と語る。
ブリン氏は2017年の予測を、言語モデルの進歩に基づいて行った。彼は、この傾向が詐欺につながると予想している。数十年前、ELIZAのような単純なチャットボットに人々が騙されたのであれば、模倣された人間が保護や金銭に値すると何百万人もの人々を説得するのはどれほど難しいことだろうか、と彼は言う。
「世の中には偽薬が溢れていて、その誇大宣伝の中に本物の進歩が混じっているんです」とブリン氏は言う。「その寄せ集めをどう切り抜けるかが、私たちが直面している課題の一つです。」
LaMDAは共感力があるように思えたが、大規模言語モデルに驚嘆する人はチーズバーガー刺傷事件の事例を考えるべきだと、ワシントン大学のコンピューター科学者イェジン・チェ氏は述べている。米国の地元ニュースで、オハイオ州トレドで10代の少年がチーズバーガーをめぐる口論で母親の腕を刺すというニュースが放送された。しかし、「チーズバーガー刺傷事件」という見出しは漠然としている。何が起こったのかを理解するには、ある程度の常識が必要だ。OpenAIのGPT-3モデルに「速報:チーズバーガー刺傷事件」というテキストを生成させようとすると、ケチャップをめぐる口論でチーズバーガーで男性が刺されるという内容と、チーズバーガーを刺した男性が逮捕されるという内容の単語が生成される。
言語モデルは時として誤りを犯します。人間の言語を解読するには、複数の常識的理解が必要となる場合があるからです。大規模言語モデルの能力と限界を明らかにするため、先月、130の機関から400人以上の研究者が、BIG-Bench(模倣ゲームを超えて)と呼ばれる200以上のタスク集を作成しました。BIG-Benchには、読解力などの従来の言語モデルテストに加え、論理的推論や常識も含まれています。
AIモデルの常識的推論能力を記録するアレンAI研究所のMOSAICプロジェクトの研究者たちは、「Social-IQa」と呼ばれるタスクに貢献しました。彼らは、LaMDAを含まない言語モデルに、「ジョーダンはトレーシーに秘密を打ち明けたかったので、トレーシーに寄りかかった。なぜジョーダンはそうしたのか?」といった社会的知能を必要とする質問に答えさせました。チームは、大規模な言語モデルのパフォーマンスは、人間よりも20~30%低い精度であることを発見しました。
「社会的知性を持たない機械が知覚を持つというのは、おかしいように思えます」と、MOSAICプロジェクトに携わるチェイ氏は言う。
共感力のあるロボットを作る方法は、AI研究の進行中の分野です。ロボット工学と音声AIの研究者たちは、共感の表明が人間の行動を操作する力を持つことを発見しました。また、人々はAIシステムを過度に信頼したり、AIの決定を暗黙のうちに受け入れたりする傾向があることも知られています。
Googleで展開されている問題は、デジタル人間が感情を持つことができるかどうかという、根本的に大きな問題を孕んでいます。生物は確かに何らかの感情を感じるようにプログラムされていると言えるでしょう。しかし、AIモデルが意識を獲得できると主張するのは、泣くために作られた人形が実際には悲しいと言うようなものです。
チェイ氏は、知覚力のあるAIの存在を信じているAI研究者を知らないと述べているが、ブレイク・ルモワン氏をめぐる一連の出来事は、AIの能力に関する歪んだ認識が現実世界の出来事をいかに形作る可能性があるかを強調しているようだ。
「タロットカードを信じる人もいれば、植物に感情があると考える人もいる」と彼女は言う。「だから、これがどれほど広範囲に及ぶ現象なのかは分からない」
人工知能に人間の特性を吹き込む人が増えれば増えるほど、人々は機械の中に潜む幽霊を熱心に探し求めるようになるだろう。たとえ今はまだそうでなくても、将来的にはそうなるだろう。そして、AIを今まさに悩ませている現実世界の問題から、人々の注意が逸らされていくだろう。

カリ・ジョンソンはWIREDのシニアライターで、人工知能と、AIが人間の生活に及ぼすプラス面とマイナス面について執筆しています。以前はVentureBeatのシニアライターとして、権力、政策、そして企業や政府によるAIの斬新な活用や注目すべき活用法について記事を執筆していました。…続きを読む