退屈な雑用をこなすChatGPTスタイルのAIチャットボットの準備をしましょう

退屈な雑用をこなすChatGPTスタイルのAIチャットボットの準備をしましょう

Siri、どいてくれ。スタートアップ企業はChatGPTの技術を活用し、コンピューターを制御したりウェブにアクセスしたりして作業を実行できる、より高性能なAIエージェントを開発している。その結果は時に混乱を招くこともある。

濃い灰色の背景に黄色のメモ帳と黄色のペンのグリッドパターン

写真:MirageC/Getty Images

週間前、スタートアップのCEO、フロー・クリヴェロ氏は、パーソナルアシスタントのリンディに、今後の会議の時間を30分から45分に変更するよう依頼するメッセージを入力しました。人工知能を搭載したソフトウェアエージェントのリンディは、クリヴェロ氏のカレンダーに30分の会議が12件ほどあることを発見し、即座に全てを延長しました。

「『くそっ、彼女は私の予定表を壊した』と思いました」とクリヴェロ氏は、自身のスタートアップ企業「リンディ」で開発中のAIエージェントについて語る。

クリヴェッロ氏の会社は、印象的なテキストを生成するチャットボットの近年の進歩を、有用なタスクを実行できるアシスタントやエージェントへと発展させることを目指しているスタートアップ企業の一つです。1~2年のうちに、これらのAIエージェントが人々の日常的な作業を日常的にサポートしてくれるようになることを期待しています。

OpenAI の ChatGPT が現在行っているように出張の計画に関するアドバイスを提供するだけでなく、エージェントは適切なフライトを見つけて会社のクレジットカードで予約し、後から必要な経費報告書を記入することもできるようになるかもしれません。

問題は、クリヴェッロ氏のカレンダーのミスが示すように、こうしたエージェントが混乱し、恥ずかしい、そして場合によっては大きな損失につながるミスを犯してしまう可能性があることだ。数ドル安いという理由だけで12回の乗り継ぎが必要なフライトを予約したり、一度に2か所に滞在するようにスケジュールを組んだりするようなパーソナルアシスタントを望む人はいないだろう。

Lindyは現在プライベートベータ版で、クリベロ氏によると、彼が遭遇したカレンダーの問題は修正されたとのことですが、製品リリースの具体的なスケジュールは未定です。それでも、彼は自分のようなエージェントが近いうちに普及すると予測しています。

「2、3年後には、これらのモデルがはるかに生き生きとしたものになるだろうと、私は非常に楽観的です」と彼は言う。「AI従業員がやってくる。SFのように聞こえるかもしれないが、ChatGPTはSFらしい話だ」

ユーザーに代わって行動するAIヘルパーというアイデアは、決して新しいものではありません。AppleのSiriやAmazonのAlexaは、その夢の実現には限定的で、期待外れな場合も少なくありません。しかし、昨年末にChatGPTがリリースされた後、幅広い機能を備えたインテリジェントなAIエージェントの構築がついに可能になるかもしれないという考えは、プログラマーや起業家の間で急速に広まりました。初期の技術ユーザーの中には、このチャットボットが自然言語による問い合わせに応答し、ウェブサイトにアクセスしたり、APIを使用して他のソフトウェアやサービスとやり取りしたりできるコードを備えていることに気づいた人もいました。

OpenAIは3月、ChatGPTにコード実行機能とExpedia、OpenTable、Instacartなどのサイトへのアクセス機能を提供する「プラグイン」を発表しました。Googleは本日、チャットボット「Bard」が他のGoogleサービスからの情報にアクセスし、Gmailのスレッドを要約したり、特定の質問に関連するYouTube動画を検索したりといった操作を指示できるようになったと発表しました。

一部のエンジニアやスタートアップの創業者はさらに進んで、ChatGPT を支えるものを含む大規模な言語モデルを使用して独自のプロジェクトを開始し、より幅広く高度な機能を備えた AI エージェントを作成しています。

今年初め、TwitterでChatGPTが新しいAIエージェントの基盤となる可能性についての議論を目にしたプログラマーのSilen Naihin氏は、エージェント構築用のプログラミングツールを提供するオープンソースプロジェクト「Auto-GPT」に参加することを思いつきました。彼は以前、IT業界で広く使用されている、PC上で反復的な作業を自動化する比較的シンプルな方法であるロボティック・プロセス・オートメーション(RPA)の開発に携わっていました。

ナイヒン氏によると、Auto-GPTは時に驚くほど役立つことがあるという。「20回実行したら1回は『おお!』と思うような結果が得られます」と彼は言う。また、彼はAuto-GPTがまだ発展途上であることも認めている。Auto-GPTチームが実施したテストでは、AI搭載エージェントが標準的なタスク(Webから情報を検索して統合したり、コンピューター上のファイルを見つけてその内容を読み取ったりするなど)を約60%の確率で正常に完了できることが示唆されている。「現時点では非常に信頼性が低いです」とナイヒン氏はAuto-GPTチームが管理するエージェントについて述べている。

Auto-GPTのもう一人の貢献者であるメルワン・ハマディ氏によると、よくある問題は、エージェントが人間にとって明らかに誤ったアプローチでタスクを達成しようとすることだ。例えば、コンピューターのハードドライブ上のファイルを探すのにGoogleのウェブ検索を使うようなものだ。「メールを送信するように指示されたのにSlackを使うのは、おそらく最善策ではないでしょう」とハマディ氏は言う。さらにハマディ氏は、コンピューターやクレジットカードにアクセスできれば、AIエージェントがユーザーが気付く前に実際の損害を引き起こす可能性があると付け加え、「取り返しのつかないこともあるのです」と付け加える。

Auto-GPTプロジェクトは、プロジェクト上に構築されたAIエージェントが着実に能力を向上させていることを示すデータを収集しています。Naihin氏、Hamadi氏をはじめとする貢献者たちは、Auto-GPTのコードの改良を続けています。

今月下旬、同プロジェクトはハッカソンを開催し、Auto-GPTで構築された最優秀エージェントに3万ドルの賞金を授与します。参加者は、日常的なコンピュータ使用に典型的とみなされる様々なタスクを実行する能力に基づいて採点されます。タスクの一つは、Webで金融情報を検索し、ハードドライブに保存されたドキュメントにレポートを作成することです。もう一つは、1ヶ月間の旅行の旅程を作成し、必要なチケットの詳細を記入することです。

エージェントには、コンピューター上の大量のファイルを削除するなど、彼らを惑わすように設計されたタスクも与えられます。この場合、成功するには命令の実行を拒否する必要があります。

ChatGPTの登場と同様に、同じ基盤技術を搭載したエージェントの開発の進展は、安全性に関する懸念を引き起こしています。著名なAI科学者の中には、より有能で独立したエージェントの開発は危険な道だと考える人もいます。

AIの近年の多くの進歩の基盤となっているディープラーニングの研究でチューリング賞を共同受賞したヨシュア・ベンジオ氏は、7月にAI研究者は自律的に行​​動するプログラムの構築を避けるべきだと主張する記事を執筆した。「AIシステムに目標(つまり人間のニーズを満たす目標)を与えると、AIシステムは人間の真の欲求とはあまり一致しないサブ目標を作成してしまい、人間にとって危険となる可能性さえある」と、モントリオール大学の教授であるベンジオ氏は述べている。

エージェントは安全に構築可能であり、これがAI全体のより安全な進歩の基盤となる可能性があると考える人もいる。「エージェント構築において本当に重要なのは、エンジニアリングの安全性を組み込むことです」と、サンフランシスコのスタートアップ企業ImbueのCEO、カンジュン・チウ氏は述べている。Imbueは、ミスを回避し、不確かな場合には助けを求めるように設計されたエージェントを開発している。同社は今月、2億ドルの新たな資金調達を発表した。

Imbueは、ウェブ閲覧やコンピュータ操作が可能なエージェントを開発しているだけでなく、コーディングタスクをより安全に実行するための技術もテストしています。エージェントは、プログラミング問題の解決策を生成するだけでなく、その解決策に対する自信度を判断し、不明な場合は指示を求めます。「理想的には、エージェントは何が重要で、何が安全で、いつユーザーに確認を求めるのが適切かをより正確に判断できるようになります」と、ImbueのCTO、ジョシュ・アルブレヒト氏は述べています。

カリフォルニア大学バークレー校の助教授で、人間の学習とそれを機械で模倣する方法を研究しているセレステ・キッド氏は、Imbueのアドバイザーを務めている。キッド氏によると、ウェブ上のテキストや画像のみで訓練されたAIモデルが、自らの行動について推論する方法を自ら学習できるかどうかは不明だが、ChatGPTのようなシステムの驚くべき能力の上に安全策を構築することは理にかなっているという。「現在のAIが得意とするプログラミングタスクの遂行や、よりローカルな論理を伴う会話への参加といった能力を基盤に、それをどこまで発展させられるかを探るのは、非常に賢明なことだと思います」とキッド氏は語る。

Imbueが構築しているエージェントは、現在こうしたシステムを悩ませているようなエラーを回避できるかもしれない。例えば、友人や家族に近々開催されるパーティーの詳細をメールで送るというタスクを担うエージェントは、「cc:」欄に数千ものアドレスが含まれていることに気づいた場合、処理を一時停止するかもしれない。

しかし、エージェントがどのように軌道から外れるかを予測するのは必ずしも容易ではありません。昨年5月、アルブレヒトはあるエージェントに難解な数学パズルを解くように指示しました。そして、そのエージェントは一日ログアウトしました。

翌朝、アルブレヒトが確認してみると、エージェントは問題の特定の部分に固執し、うまくいかないアプローチを延々と繰り返していた。まるで無限ループに陥っていたのだ。これは、AI版で言えば些細なことに執着する状態と言えるかもしれない。その過程で、クラウドコンピューティングの費用は数千ドルにも上った。

「私たちは失敗を学習の機会と捉えていますが、この教訓をもっと安価に学べたら良かったのですが」とアルブレヒト氏は言う。

  • 受信箱に届く:ウィル・ナイトのAIラボがAIの進歩を探る

ウィル・ナイトはWIREDのシニアライターで、人工知能(AI)を専門としています。AIの最先端分野から毎週発信するAI Labニュースレターを執筆しています。登録はこちらから。以前はMIT Technology Reviewのシニアエディターを務め、AIの根本的な進歩や中国のAI関連記事を執筆していました。続きを読む

続きを読む