OpenAIがChatGPTにメモリを付与

OpenAIがChatGPTにメモリを付与

インターネットの将来性と危険性は、常に人間の記憶力を超える記憶力、つまり脳が記憶できない情報や出来事を永久に想起できることにありました。近年、テクノロジー企業は、バーチャルアシスタントやチャットボットが記憶とリマインダーの両方の機能を提供することで、記憶に関わる負担の一部を担えると約束しています。これは、インターネットを単なる保管庫ではなく、会話の場として捉えるというビジョンです。

OpenAIの最新リリースはまさにそれを実現するはずだ。同社はChatGPTに長期記憶機能を導入し始めている。これは、ユーザーが誰なのか、どのように仕事をしているのか、どんな会話をするのが好きなのかを記憶する機能だ。シンプルに「Memory」と呼ばれるこのAIパーソナライゼーション機能は、OpenAIが昨年7月にリリースした「カスタム指示」ツールを強力に強化する。ChatGPTのカスタム指示を使えば、ユーザーはチャットボットに「ベイエリア在住のテクノロジージャーナリストで、サーフィンが好きです」と伝えると、チャットボットはその会話の中で、その後の返答でその情報を考慮する。まるで初デートでデートの相手が細部まで忘れないかのように。

ChatGPTのメモリは複数のチャットにまたがって保持されるようになりました。また、ユーザーがカスタム指示を出したり、チャットボットに直接何かを記憶するように指示したりしなくても、ChatGPTユーザーの個人情報を記憶します。会話が進むにつれて、チャットボットは必要な情報を取得し、保存します。これは無料版(ChatGPT 3.5)と有料版(ChatGPT 4)の両方で機能します。

この機能がリリースされる前にWIREDのデモで、同社のモデル行動担当プロダクトリーダーであるジョアン・ジャン氏が、いくつかのサンプルクエリを入力した。あるクエリでは、ジャン氏はChatGPTに、バレンタインデーにCatioというカフェを開店するためのソーシャルメディア投稿を書くように依頼し、ボットはそのタスクを実行した。別の投稿では、ジャン氏バレンタインデーにCatioというカフェを開店することを示していた。その後、彼女はChatGPTの設定にあるメモリに移動した。ボットは彼女に関するこの情報を保存していた。同様に、ジャン氏がコーディングのヒントを求め、Pythonを使用していることを示したところ、ChatGPTはジャン氏がPythonのみを使用していることをメモリに記録した。

これらのデータは、JangとChatGPTとの今後のすべての会話で参照されます。たとえ彼女が他のチャットでCatioについて直接言及しなかったとしても、ChatGPTは関連する場面でCatioについて言及します。

ChatGPT メモリ管理設定メニューのスクリーンショット

OpenAI提供

OpenAIによると、ChatGPTのメモリはデフォルトでオプトイン方式になっており、ユーザーが自らオフにする必要がある。メモリは設定から​​、あるいはボットに消去を指示することでいつでも消去できる。メモリ設定が消去されると、その情報はAIモデルの学習に使用されなくなる。チャットボットとチャットしている際に、その個人データがAIの学習にどの程度使用されているかは不明だ。また、メモリをオフにしたからといって、チャットによるOpenAIモデルの学習を完全にオプトアウトしたわけではなく、別のオプトアウト方法がある。

同社はまた、特定の機密情報はメモリに保存しないとも主張している。ChatGPTにパスワード(これは絶対にやめよう)や社会保障番号(あるいはこれ)を教えたとしても、ありがたいことにアプリのメモリはそれを忘れてしまう。ジャン氏によると、OpenAIは、ユーザーの民族性といった他の個人を特定できる情報が、同社が自動取得するには機密性が高いかどうかについて、現在もフィードバックを求めているという。

「この例には役立つケースがたくさんあると考えています。しかし現時点では、この情報を積極的に記憶しないようにモデルをトレーニングしています」とジャン氏は言う。

ChatGPTのメモリ機能がうまく機能しない可能性は容易に想像できます。例えば、ユーザーがチャットボットに性的な性癖や中絶クリニック、義母への非暴力的な対処法について質問したことを忘れていて、その後のチャットで思い出したり、他の人に見られたりするといった状況です。ChatGPTのメモリが健康データをどのように扱うかは、まだ未解決の問題です。「ChatGPTが特定の健康情報を記憶しないようにしていますが、これはまだ開発段階です」とOpenAIの広報担当者Niko Felix氏は述べています。このように、ChatGPTはインターネットの永続性について、新しい時代においてもこれまでと同じ歌を歌っていると言えるでしょう。この素晴らしい新しいメモリ機能を見てください。しかし、バグが発生するまでは。

OpenAIは、生成AIにおける記憶を扱う最初の組織ではありません。Googleは、独自のLLMであるGemini 1.0で「マルチターン」技術を重視しています。これは、Gemini Proでは、ユーザーとチャットボットの間で1ターンのプロンプト(1回のやり取り)で対話することも、ボットが以前のメッセージの文脈を「記憶」するマルチターンの継続的な会話を行うこともできることを意味します。

AIフレームワーク企業LangChainは、大規模言語モデルがエンドユーザーとモデル間の過去のやり取りを思い出せるように支援するメモリモジュールを開発しています。LLMに長期記憶を与えることは、「独自のLLM体験を生み出す上で非常に強力です。チャットボットは、ユーザーに関する知識に基づいて、ユーザー一人ひとりに合わせた応答を行えるようになります」と、LangChainの共同創業者兼CEOであるハリソン・チェイス氏は述べています。「長期記憶の欠如は、ユーザーにとって不快な体験を生み出す可能性もあります。レストランを勧めるチャットボットに、自分がベジタリアンであることを何度も伝えなければならないのは誰も望んでいません。」

この技術は「メモリ」ではなく「コンテキスト保持」または「持続コンテキスト」と呼ばれることもありますが、最終的な目標は同じです。つまり、人間とコンピュータのインタラクションが非常にスムーズで自然になり、ユーザーがチャットボットが記憶している内容を簡単に忘れてしまうことです。これは、チャットボットを導入し、顧客との継続的な関係を維持したいと考えている企業にとっても、大きなメリットとなります。

「これらは、会話の先頭に追加されるトークンの数と考えてください」と、OpenAIの研究科学者であるリアム・フェダス氏は言います。「ボットにはある程度の知能があり、舞台裏で記憶を見て、『これらは関連しているようだ。統合しよう』と判断するのです。そして、そのトークンがあなたのトークンバジェットに加算されます。」

Fedus氏とJang氏は、ChatGPTのメモリ容量は人間の脳の容量には遠く及ばないと述べています。しかし、Fedus氏はほぼ同時に、ChatGPTのメモリは「数千トークン」に制限されていると説明しています。もしそうなら、なおさらです。

これは、過去10年間テクノロジー消費者に約束されてきた、非常に用心深いバーチャルアシスタントなのか、それとも、ユーザーの好みや嗜好、個人データを利用して、ユーザーよりもテクノロジー企業に有利なサービスを提供する、単なるデータ収集スキームなのか?おそらく両方だろう。ただし、OpenAIはそうは考えていないかもしれない。「過去のアシスタントには知性が欠けていたのだと思います」とフェダス氏は述べた。「そして今、私たちはそこに近づいています。」

ウィル・ナイトがこのストーリーに貢献しました。