WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。
Siri、Alexa、 Google Assistant を使えばタイマーを設定したり、曲を再生したり、天気をチェックしたりするのは簡単ですが、実際に会話をしたい場合はトースターに話しかけてみるのも良いでしょう。
人間と同じように自然に話すには、常識的な世界理解、事実や時事問題に関する知識、そして相手の感情や性格を読み取る能力が必要です。機械がそれほど話さないのも無理はありません。
Facebook の人工知能研究者が開発したチャットボットは、膨大な量のトレーニング データと少しの人工的な共感、個性、一般知識を組み合わせることで、楽しいおしゃべりをしているという錯覚をある程度作り出せることを示している。
「Blender」と名付けられたこの新しいチャットボットは、FacebookをはじめとするAIと言語の最新技術を融合・発展させています。音声アシスタントやオートコンプリートアルゴリズムがより饒舌で魅力的なものになる可能性を示唆すると同時に、ソーシャルメディアボットやAIの巧妙な動きが見分けにくくなるという懸念すべき事態を示唆しています。
「Blenderは本当に良さそうです」と、カーネギーメロン大学で会話型AIシステムを研究し、チャットボットの会話の一部をレビューした博士課程の学生、シキブ・メリ氏は言う。

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。
Facebookが共有したスニペットには、このボットがオンラインユーザーと、ゲーム・オブ・スローンズからベジタリアン、自閉症児の子育てまで、あらゆる話題について友好的に会話している様子が映っている。これらの例は厳選されたものだが、実験では、このチャットボットの会話の記録は他のボットよりも魅力的であり、時には人間同士の会話に匹敵すると評価された。
Blenderは依然として、難しい質問や複雑な言葉遣いにつまずき、議論の筋を長く維持するのに苦労します。これは、Blenderが常識や感情的な理解ではなく、統計的なパターンマッチングを用いて回答を生成することに一部起因しています。
言語をより文脈的に理解するための他の取り組みも、機械学習プログラムの新しい学習方法のおかげで、近年進展を見せています。昨年、OpenAI社は、プロンプトから説得力のある大量のテキストを生成するアルゴリズムを学習させました。その後、マイクロソフトは同様のアプローチが対話にも適用できることを示し、Redditの1億4,700万件の会話で学習したAIプログラム「DialoGPT」をリリースしました。1月には、Googleが同様のアプローチを用いてより自然な人間的な会話を行うチャットボット「Meena」を発表しました。
FacebookのBlenderは、これらの取り組みをさらに進めています。Redditからのさらに多くのトレーニングデータに基づいており、さらに他のデータセットによるトレーニングも追加されています。1つは共感的な会話を捉えたもの、もう1つは様々な性格に合わせたもの、そして3つ目は一般知識を含むものです。完成したチャットボットは、これらのデータセットから得た学習を融合します。
「規模だけでは十分ではありません」と、Blenderの開発に携わったFacebookのリサーチエンジニア、エミリー・ディナンは語る。「共感、個性、知識といった適切な会話スキルをモデルに与えるために、微調整をしっかり行う必要があります。」
会話型プログラムの探求は、AIの黎明期に遡ります。コンピュータサイエンスの先駆者であるアラン・チューリングは、有名な思考実験において、機械知能の目標として、相手を騙して人間と話していると思わせることを設定しました。チャットボットが人を騙すという長い歴史もあります。1966年、MITのジョセフ・ワイゼンバウム教授は、セラピスト向けのチャットボット「ELIZA」を開発しました。これは、発言を質問として再構成するだけのシンプルなものでした。彼は、ボランティアたちがこのボットを十分リアルに感じ、個人情報を漏らしてしまうことに驚きました。
もちろん、より洗練された言語プログラムには、よりダークな側面もあります。OpenAIは、偽ニュースの大量生産に利用されることを懸念し、テキスト生成プログラムの公開を拒否しました。同様に、より高度なチャットボットは、より説得力のある偽のソーシャルメディアアカウントを作成したり、フィッシングキャンペーンを自動化したりするために利用される可能性があります。
Facebookの研究者たちはBlenderの公開を見送ることも検討しましたが、メリットがリスクを上回ると判断しました。特に、他の研究者がBlenderを使って対抗策を開発できると考えています。しかし、進歩は見られるものの、このプログラムは依然としてかなり限定的であると彼らは述べています。
「リスクについては確かに考えました」と、Facebookのもう一人の研究エンジニア、スティーブン・ローラー氏は語る。「これらのモデルを公開することで、他のトップクラスの研究機関がこの研究をさらに発展させ、悪用を検知できるようになります」。ローラー氏によると、Blenderはまだ粗雑すぎて誰も騙せないだろうという。「対話の仕組みはまだ解明できていません」と彼は言う。
カリフォルニア大学デービス校でAIと言語学を専門とする周宇助教授は、近年の進歩により、より流暢なチャットボットが誕生したと述べている。しかし、自然な会話を長時間維持することは依然として難しい。研究論文に基づいて、これらのシステムが現実世界でどのように機能するかを評価するのは難しいと彼女は言う。「どの論文にもいくつかの例が示されています」と彼女は言う。「しかし、彼らは非常に協力的なユーザーと会話しているのだと思います」
WIREDのその他の素晴らしい記事
- 優秀な若きプログラマーの悲惨な没落
- 私はどうぶつの森では全くリラックスできない
- 新型コロナウイルス感染症の現実は、特に10代の若者に大きな打撃を与えている
- Zoomチャットをプライベートかつ安全に保つ方法
- ストックホルムの地下鉄網は世界最長のアートウォーク
- 👁 AIがCOVID-19の潜在的な治療法を発見。さらに、最新のAIニュースもお届けします
- 🎧 音に違和感を感じたら、ワイヤレスヘッドホン、サウンドバー、Bluetoothスピーカーのおすすめをチェック!