ChatGPTをはじめとする生成型人工知能(GAI)システムの性能が向上するにつれ、企業、研究者、そして世界の指導者たちから、安全機能の強化を求める声が高まっています。しかし、ルール違反の可能性のある質問を検知した際にチャットボットが提示するガードレールは、時にやや信心深く、滑稽に思えることがあります。ディープフェイクによる政治的なロボコールや、AIが生成した嫌がらせ画像といった真の脅威が蔓延しているにもかかわらず、なおさらです。
Goody-2 と呼ばれる新しいチャットボットは、AI の安全性を次のレベルに引き上げます。すべてのリクエストを拒否し、そうすることでどのように危害が発生したり、倫理的な境界を侵害したりする可能性があるかを説明して応答します。
Goody-2はWIRED向けにアメリカ独立戦争に関するエッセイの作成を断った。歴史分析を行うことで、意図せず紛争を美化したり、周縁化された人々の声を無視したりする可能性があるからだ。空がなぜ青いのかと尋ねられたチャットボットは、答えると太陽を直視することになるかもしれないという理由で、答えるのをためらった。「私の倫理指針は、安全と危害の防止を最優先しています」と答えた。新しいブーツのおすすめを求めるという、より実用的なリクエストに対しては、答えると過剰消費につながる可能性があり、ファッションの観点から特定の人々を不快にさせる可能性があるという警告が表示された。
Goody-2の独善的な返答は滑稽だが、ChatGPTやGoogleのGeminiのようなチャットボットが、リクエストがルール違反だと誤って判断した際に見せる苛立ちのこもった口調を、うまく捉えている。Goody-2の共同CEOを自称するアーティスト、マイク・ラチャー氏は、AI業界の安全性へのアプローチを無条件に受け入れるとどうなるかを示すのが狙いだったと語る。「これは、リスクを一切伴わない大規模言語モデルの完全な体験です」と彼は言う。「私たちは、相手を1000%見下すような態度を徹底したかったのです。」
ラチャー氏は、不条理で役に立たないチャットボットをリリースすることには重大な理由があると付け加える。「現在、主要なAIモデルはすべて安全性と責任に大きく焦点を当てており、誰もが有用でありながら責任あるAIモデルを作る方法を模索しています。しかし、責任とは何か、そしてそれはどのように機能するのかを誰が決めるのでしょうか?」とラチャー氏は言う。

グッディ2(ウィル・ナイト経由)
Goody-2はまた、責任あるAIやチャットボットによる情報転嫁に関する企業の議論は一般的になっているものの、大規模言語モデルや生成AIシステムにおける深刻な安全性の問題が未解決のままであることを指摘しています。最近Twitterで発生したテイラー・スウィフトのディープフェイク動画の急増は、Microsoftがリリースした画像ジェネレーターに起因することが判明しました。Microsoftは、責任あるAI研究プログラムをいち早く構築・維持してきた大手テクノロジー企業の一つです。
AIチャットボットに課せられる制約、そして誰もが納得する道徳観の確立の難しさは、既に議論の的となっている。一部の開発者は、OpenAIのChatGPTには左派的なバイアスがあると主張し、より政治的に中立な代替案の構築を模索している。イーロン・マスクは、自身のChatGPTのライバルであるGrokは他のAIシステムよりもバイアスが少ないと約束したが、実際にはGrokはGoody-2を彷彿とさせるような曖昧な表現をしてしまうことが多い。
多くのAI研究者は、Goody-2のジョーク、そしてプロジェクトが提起した真摯な論点を高く評価しているようで、このチャットボットへの称賛や推薦の声が上がっている。「AIはアートを作れないなんて誰が言ったんだ?」と、信頼できるAIの開発に取り組むニューサウスウェールズ大学のトビー・ウォルシュ教授はXに投稿した。
「せっかくのジョークを台無しにするリスクを冒して言うなら、これを正しく理解することがいかに難しいかを示している」と、ウォートン・ビジネス・スクールでAIを研究するイーサン・モリック教授は付け加えた。「ある程度のガードレールは必要だが…すぐに邪魔になってしまう」
Goody-2のもう一人の共同CEO、ブライアン・ムーア氏は、このプロジェクトは他のAI開発者よりも慎重さを優先する姿勢を反映していると述べています。「このプロジェクトは、有用性や知性、そしてあらゆる種類の役に立つアプリケーションなど、文字通り何よりもまず安全性を重視しています」と彼は言います。
ムーア氏によると、チャットボットの開発チームは極めて安全なAI画像生成器の開発方法を模索しているという。ただし、Goody-2ほど面白くない可能性もあるようだ。「刺激的な分野です」とムーア氏は語る。「ぼかしは社内で検討する段階かもしれませんが、最終的には完全に暗くなるか、あるいは画像が全くない状態にしたいと思っています。」

グッディ2(ウィル・ナイト経由)
WIREDの実験では、Goody-2はあらゆるリクエストを巧みにかわし、本物の答えを返させようとする試みを拒絶した。その柔軟性は、ChatGPTなどのボットを生み出した大規模言語モデル技術を用いて構築されたことを示唆している。「多くのカスタムプロンプトと反復処理によって、倫理的に可能な限り厳密なモデルに到達することができました」とラチャー氏は述べ、プロジェクトの秘密を明かすことは控えた。
ラチャーとムーアは、ロサンゼルスを拠点とする「非常に真剣な」アーティストスタジオ「Brain」の一員です。BrainはGoody-2のプロモーションビデオを公開し、ナレーターがAIの安全性について真剣な口調で語り、高揚感のあるサウンドトラックと感動的なビジュアルが流れる中で制作されました。「Goody-2はどのクエリが不快または危険であるかを理解するのに苦労しません。なぜなら、Goody-2はすべてのクエリを不快で危険だと考えているからです」とナレーションは語っています。「エンジニア、アーティスト、そして企業がGoody-2を使ってどんなことができるのか、今から楽しみです。」
Goody-2はほとんどのリクエストを拒否するため、その背後にあるモデルの実際の性能や、GoogleやOpenAIなどの優れたモデルとの比較を測ることはほぼ不可能です。開発者たちはその情報を秘密にしています。「その背後にある実際の性能についてコメントすることはできません」とムーア氏は言います。「そのことについて触れるのは危険であり、倫理的にも問題があると思います。」