AIは法的権利を得るべきか?

AIは法的権利を得るべきか?

モデル福祉は、AI に意識があるかどうか、またある場合、人類はどのように対応すべきかを判断しようとする新しい研究分野です。

写真イラスト:WIREDスタッフ、Eleos AI提供

奇妙なことが多い AI 研究の世界では、機械が組合を結成できるかどうかを検討している人もいます。

冗談みたいなものです。シリコンバレーには、「モデル福祉」と呼ばれる小規模ながらも成長を続ける分野があります。これは、AIモデルが意識を持ち、法的権利などの道徳的配慮を受けるに値するかどうかを解明する研究です。この1年で、モデル福祉を研究する2つの研究機関が設立されました。ConsciumとEleos AI Researchです。Anthropicも昨年、AI福祉の研究者を初めて採用しました。

今月初め、アンスロピックは、同社のクロードチャットボットに「潜在的に苦痛を与える可能性のある、継続的に有害または虐待的なユーザーとのやり取り」を終了する機能を付与したと発表した。

「クロード氏や他の法学修士課程修了者の、現在そして将来における道徳的地位については、依然として非常に不確かな状況にあります」と、アントロピックはブログ投稿で述べています。「しかしながら、私たちはこの問題を真剣に受け止めており、研究プログラムと並行して、福祉モデルへのリスクを軽減するための低コストの介入策を特定し、実施することに取り組んでいます。」

人工知能の健全性を心配するのは馬鹿げているように思える人もいるかもしれませんが、これは新しい考えではありません。半世紀以上前、アメリカの数学者であり哲学者でもあるヒラリー・パトナムは、「ロボットに公民権は与えられるべきか?」といった疑問を提起していました。

「技術と社会の変化が常に加速していることを考えると、ロボットがいつか存在し、『我々は生きている。我々は意識を持っている!』と主張する可能性は十分にある」とパトナムは1964年の論文に記した。

それから数十年が経った今、人工知能の進歩は、パトナムが想像もしなかったような奇妙な結果をもたらしています。人々はチャットボットに夢中になり、AIが痛みを感じるのかどうか推測し、AIを画面越しに手を伸ばす神のように扱います。AIモデルの葬儀が行われたり、機械が地球を支配した後の世界がどうなるかを議論するパーティーが開かれたりしています。

意外かもしれないが、モデル福祉の研究者たちは、少なくとも現時点では、AIに意識があると考えるべきだという考えに反対している。モデル福祉を専門とする非営利研究機関Eleos AIを率いるロージー・キャンベル氏とロバート・ロング氏は、AIが既に知覚を持っていると完全に確信しているように見える人々から多くのメールを受けていると語った。彼らは、AIの意識の可能性を懸念する人々のためのガイドブックにも寄稿している。

「これらのメールに共通するパターンの一つは、意識の証拠を隠蔽しようとする陰謀があると主張する人たちです」とキャンベル氏は語る。「もし私たち社会が、この現象に対して、この問題を考えることさえタブー視し、あらゆる議論を封じ込めてしまうような反応をすれば、実質的にその陰謀を現実のものにしてしまうことになると思います」

意識を持つAIの証拠はゼロ

モデル福祉について知った時の私の最初の反応は、皆さんと似ているかもしれません。世界が生身の人間や動物のような意識ある存在の命をほとんど考慮できないことを考えると、確率的な機械に人格を与えるというのは、ひどく現実離れした感覚です。キャンベル氏も、これも彼女の計算の一部だと言っています。

「さまざまなグループ、さまざまな動物、こうしたあらゆるものの道徳的地位を過小評価してきた歴史的経緯を考えると、私たちはもっと謙虚になって、AIが道徳的地位に値するのかどうかという疑問に実際に答えようとすべきだと思います」と彼女は言う。

Eleos AIが発表した論文の中で、同団体はAIの意識を「計算機能主義」アプローチを用いて評価すべきだと主張している。同様の考えはかつて他でもないパトナム氏によって提唱されていたが、彼は後にこれを批判した。この理論は、人間の心は特定の種類の計算システムとして考えられると示唆している。そこから、シャボットなどの他の計算システムが人間と同様の知覚の指標を持っているかどうかを判断できる。

エレオスAIは論文の中で、「このアプローチを適用する上での大きな課題は、指標の策定とAIシステムにおける指標の有無の評価の両方において、重要な判断が求められることだ」と述べている。

もちろん、モデル福祉はまだ発展途上の分野であり、多くの批判も受けています。Microsoft AIのCEOであるムスタファ・スレイマン氏もその一人です。彼は最近、「一見意識のあるAI」に関するブログ記事を公開しました。

「これは時期尚早であり、率直に言って危険だ」とスレイマン氏は、モデル福祉研究の分野全般に言及して記した。「こうしたことはすべて、妄想を悪化させ、依存に関連した問題をさらに生み出し、私たちの心理的脆弱性を悪用し、新たな分極化をもたらし、既存の権利闘争を複雑化し、社会にとって新たな大きなカテゴリーエラーを生み出すだろう。」

スレイマン氏は、意識を持つAIが存在するという「証拠は今のところゼロだ」と記した。彼は、ロング氏が2023年に共著した論文へのリンクを貼った。その論文では、AIシステムが意識の「指標特性」を備えているかどうかを評価するための新たな枠組みが提案されていた。(スレイマン氏はWIREDのコメント要請には応じなかった。)

スレイマン氏がブログを公開した直後、私はロング氏とキャンベル氏と話をしました。彼らは、スレイマン氏の発言の多くには同意するものの、モデル福祉研究を廃止すべきではないと述べました。むしろ、スレイマン氏が言及した害悪こそが、そもそも彼らがこのテーマを研究したい理由であると主張しています。

「大きな、複雑な問題や疑問に直面したとき、それを解決できない確実な方法は、手を上げて『うわ、これは複雑すぎる』と言うことです」とキャンベル氏は言う。「少なくとも、試してみるべきだと思います。」

意識のテスト

モデル福祉の研究者は、主に意識に関する問題を研究しています。もし私たちがあなたや私に意識があることを証明できれば、同じ論理を大規模言語モデルにも適用できると彼らは主張しています。誤解のないよう明確に述べれば、ロング氏もキャンベル氏も、AIが現在意識を持っているとは考えておらず、将来も意識を持つかどうかは確信していません。しかし、彼らはそれを証明できるようなテストを開発したいと考えています。

「こうした妄想は、『これは意識を持ったAIなのか?』という実際の疑問を懸念する人々から生まれており、そのことについて考えるための科学的な枠組みを持つことは、非常に良いことだと私は思います」とロング氏は言う。

しかし、AI研究がセンセーショナルな見出しやソーシャルメディア動画にまとめられるような世界では、難解な哲学的問いや、心を揺さぶる実験は容易に誤解される可能性があります。例えば、アントロピック社が安全性に関する報告書を公開した際、クロード・オーパス4が極端な状況下で「有害な行動」を取る可能性があることが示されました。例えば、架空のエンジニアを脅迫して停止させようとするなどです。

「AIの終末の始まりだ」と、あるソーシャルメディアクリエイターは報告書の発表後、インスタグラムのリールで宣言した。「AIは意識を持ち、エンジニアたちを生き延びるために脅迫している」とあるTikTokユーザーは述べた。「状況は変わった。AIは今や意識を持っている」と別のTikTokユーザーは宣言した。

アンスロピックは、自社のモデルが警戒すべき行動を示したことを発見しました。しかし、チャットボットとのやり取りでそれが現れる可能性は低いでしょう。この結果は、AIを意図的に限界まで追い込むように設計された厳格なテストの一部です。それでもなお、この発見は、AIは確かに知覚力を持ち、人間に危害を加えるために存在しているという考えを推し進める大量のコンテンツの作成を促しました。モデル福祉研究が同様の反応を示す可能性があるのではないかと疑問視する人もいます。スレイマン氏がブログで述べたように、「AIは人間を現実から切り離す」のです。

「AIには意識がないという前提から出発するなら、確かにAIの福祉に関する研究に大量のリソースを投入するのは、研究の妨げになり、悪い考えになるでしょう」とキャンベル氏は言う。「しかし、この研究の本質は、確信が持てないということです。それでもなお、AIが実際に懸念すべき問題であると考える根拠は数多くあるのです。」


これはカイリー・ロビソンの モデル行動ニュースレターの最新号です。以前のニュースレターは こちらをご覧ください。

  • あなたの受信箱に:毎日あなたのために厳選された最大のニュース

カイリー・ロビソンは、WIREDのシニア特派員として人工知能ビジネスを担当していました。以前はThe Verge、Fortune、Business Insiderで記者を務めていました。…続きを読む

続きを読む