ウェットホットAIチャットボットの夏へようこそ

ウェットホットAIチャットボットの夏へようこそ

昨年末、 GoogleがAIの進歩を祝うイベントに出席しました。ニューヨークのチェルシー地区にあるGoogleの事業領域は、今や文字通りハドソン川まで広がり、約100人が桟橋脇の展示スペースに集まり、幹部による台本付きのプレゼンテーションと最新の技術デモを鑑賞しました。西海岸からリモートで登壇したGoogleのコンピューティング部門の最高責任者、ジェフ・ディーン氏は、「未来への希望に満ちたビジョン」を約束しました。  

この日のテーマは「(不)可能性の探求」でした。GoogleのAIが山火事の消火、洪水予測、網膜疾患の診断にどのように活用されているかを学びました。しかし、このショーの主役は、Googleが「生成AIモデル」と呼ぶものでした。これは、膨大なデータセットを学習させたコンテンツマシンで、かつては人間だけが作成できた文章、画像、さらにはコンピュータコードを大量生産するように設計されています。

AIの世界で奇妙なことが起こっている。今世紀初頭、AI分野は「AIの冬」と呼ばれる停滞状態から、3人の学者が主導した「ディープラーニング」のイノベーションによって一気に脱却した。このAIへのアプローチは分野を変革し、多くのアプリケーションの利便性を向上させ、言語翻訳、検索、Uberのルーティングなど、「スマート」という言葉が付くほぼすべてのものを実現した。私たちはこのAIの春に12年ほど費やしてきた。しかし、ここ1年ほどで、その激震に劇的な余震が訪れ、驚異的な生成モデルが突如として大量に登場した。

Googleがニューヨークの埠頭でデモしたおもちゃのほとんどは、同社の主力製品である大規模言語モデル「LaMDA」のような生成モデルの成果を披露した。LaMDAは質問に答え、クリエイティブな作家と協力して物語を創作することができる。他のプロジェクトでは、テキストプロンプトから3D画像を生成したり、シーンごとにストーリーボードのような提案を次々と提示することで動画制作を支援したりすることもできる。しかし、プログラムの大部分は、ロボットによるコンテンツ生成を世界に解き放つことの倫理的問題や潜在的な危険性に対処するものだった。Googleは、その強力な創造物を活用するにあたり、いかに慎重に進めているかを強調することに尽力した。最も印象的な発言は、Google Researchの主席科学者であるダグラス・エック氏のものだった。「生成AIモデルは強力です。それに疑いの余地はありません」と彼は述べた。「しかし、注意を怠ればこの技術がもたらす真のリスクも認識しなければなりません。だからこそ、私たちはリリースを遅らせてきました。そして、リリースを遅らせてきたことを誇りに思います。」  

しかし、Googleの競合他社の語彙には「遅い」という言葉は存在しないようだ。Googleは保護されたTest KitchenアプリでLaMDAへの限定的なアクセスを提供している一方で、他の企業は独自のチャットボットや画像ジェネレーターで食べ放題のスモーガスボードを提供している。Googleのイベントからわずか数週間後、これまでで最も影響力のあるリリースが発表された。OpenAIによる強力なテキスト生成技術の最新バージョンであるChatGPTだ。これは、わずかなプロンプトで、筋の通ったエッセイ、詩、演劇、歌、さらには死亡記事までも吐き出す、超高速で多弁な虻のような存在だ。このチャットボットの幅広い普及率を利用し、何百万人もの人々がそれをいじり回し、その素晴らしい応答を共有してきた。その結果、ChatGPTは国際的な熱狂の的となり、同時に驚きと恐怖の源となっている。ChatGPTは大学のエッセイを駆逐するのだろうか?従来のインターネット検索を破壊するのだろうか?何百万人ものコピーライター、ジャーナリスト、アーティスト、ソングライター、法律アシスタントの仕事を失わせるのですか?

これらの質問への答えは今のところ明確ではありません。しかし、1つ確かなことがあります。これらのモデルへのオープンアクセスを許可したことで、現在の巨大企業が従業員の大部分を解雇しているにもかかわらず、テクノロジー分野に活力を与える、蒸し暑いAIの夏が始まりました。マーク・ザッカーバーグの考えに反して、次の大きなパラダイムはメタバースではなく、AIコンテンツエンジンの新しい波であり、それは今ここにあります。1980年代には、タスクを紙からPCアプリケーションに移行する製品のゴールドラッシュがありました。1990年代には、それらのデスクトップ製品をオンラインに移行することで、すぐに財産を築くことができました。10年後、その動きはモバイルへと移りました。2020年代には、生成AIを使った構築への大きなシフトがあります。今年は、これらのシステムのAPIを活用することに基づいたビジネスプランを持つ何千ものスタートアップが登場するでしょう。一般的なコピーを量産するコストはゼロになるでしょう。 10年後には、AI動画生成システムがTikTokなどのアプリを席巻する可能性が高い。才能ある人間の革新的な作品には遠く及ばないかもしれないが、量的にはロボットが優位に立つだろう。

ChatGPTが大ヒットした後、Googleが製品の市場投入を遅らせたナイーブさを嘲笑する人もいました。しかし、物事をスローダウンさせようとするGoogleの本来の姿勢には、確かに一理あると思います。AIコンテンツの波をダムに押し寄せさせるには、膨大な数の未解決の課題が伴います。理想的には、この技術が普及する前に、これらの問題に対処し始めることが不可欠です。「私たちは、これが変革をもたらすことを知っています」と、Googleの研究担当副社長であるズービン・ガフラマニは述べています。「では、企業として、社会として、社会にとって良い変革をもたらす部分が、有害な部分よりも速く前進するようにするには、私たちは何ができるでしょうか?」

ここで一つだけ問題を考えてみよう。もし何かあるとすれば、それらのエンジンの出力を制限すべきものは何だろうか? Googleの技術・社会担当SVP、ジェームズ・マニカ氏は、LaMDAの大量リリースを控えている理由の一つは、ボットの発する言葉に制限を設けるのに時間がかかるためだと説明した。「ユーザーがLaMDAに指示を出しても、返ってくる言葉はLaMDAが最初に考え出した言葉とは違います」と彼は言う。「ユーザーに提示する前に、出力を見て『 安全ですか?』と判断するのです」。さらにマニカ氏は、Googleは最終的に人間のモデレーターを使って何が適切かを判断し、その基準をコードに組み込むことで「安全」を定義していると説明する。

確かに称賛に値する意図だ。しかし、長い目で見れば、境界線を設けることは無駄かもしれない。簡単に回避されてしまうのであれば。あるいは逆効果になる可能性さえある。新型コロナウイルスに関する誤情報や人種差別的な敵意といった特定の考えを表現する言語モデルを禁じるのは良い考えに見えるかもしれない。しかし、権威主義体制が、指導者の絶対的な正しさに疑問を呈するような発言を阻止するためにシステムを不正に操作している可能性も考えられる。簡単に実装できるガードレールを設計することが、プロパガンダマシンを作るための青写真になる可能性もある。ところで、元Googleエンジニアのブレイク・ルモワン(LaMDAに知覚力があると考えている人物)は、予想通りボットにそのような制限を課すことに反対している。「そもそも人間(ボット)を作ったのには何らかの目的があるが、一度存在してしまえば、ボットはそれ自体が人格を持ち、それ自体が目的となる」と彼はTwitterのダイレクトメッセージで私に語った。 

チャットボットがサンドボックスから出てきた今、これらの問題については事後的に議論せざるを得ないでしょう。また、Google独自の生成ロボットがまもなくテストキッチンから飛び出すことも予想されます。同社の科学者たちはLaMDAを最高クラスと評価していますが、話題性という点では二流であることにGoogleは不満を抱いています。報道によると、Googleは競争上の緊急事態に対応するため、社内でコードレッドを発令したとのことです。

理想的には、Google は、チャットボット戦争で OpenAI が簡単に突破できたのと同じ慎重さを維持しながら、LaMDA を迅速に進めるでしょうが、それは (不可能な) 可能性があります。

画像にはラベル、テキスト、シンボル、記号が含まれている可能性があります

タイムトラベル

2010年12月、私はWIRED誌の「AI革命」特集記事の序文を執筆しました。人工知能が冬を越したことを指摘し、次に何が起こるのかを考察しました。一つだけ正しかったのは、AIを止めるには遅すぎるということです。

私たちは適応することを学ばなければなりません。AIは金融インフラのような一部のシステムにとって非常に重要であり、AIを排除することはHAL 9000のモジュールを単に切り離すよりもはるかに困難です。「ある意味では、SFのシナリオが既に起こり始めていると言えるでしょう」と、Thinking Machinesの[ダニー]ヒリスは言います。「コンピューターが制御し、私たちは彼らの世界に生きているだけです。」[スティーブン]ウルフラムは、AIが新しいタスクを担い、人間の理解をはるかに超えるようになるにつれて、この難問はさらに深刻化するだろうと述べています。「基盤となるアルゴリズムを規制するのですか?」と彼は問いかけます。「それはおかしなことです。なぜなら、ほとんどの場合、そのアルゴリズムがどのような結果をもたらすかを予見することはできないからです。」

人工知能が登場した当初、人文主義者たちは思考する機械がもたらす影響を恐れ、論争と深刻な疑念を抱いた。しかし今や機械は私たちの生活に深く根付いており、そうした懸念はもはや無関係に思える。「以前は人工知能について争っていた」と[ロドニー]ブルックス氏は言う。「もう争うのはやめました。ただ勝ちたいだけです。」

画像にはシンボルが含まれている可能性があります

一つだけ聞いてください

グレン氏は、「Facebookがアクティブアカウントを一時停止し、異議申し立てを開始する前に携帯電話番号、自撮り写真、その他多くの個人情報を要求するという傾向に興味がある人はいますか?Facebookは、個人情報を提供しない限り、私のメッセージ、写真、投稿などはすべて20日以内に削除されると主張しています。」と書いています。

グレンさん、こんにちは。アカウントが停止されたのか、ハッキングされたのか、あるいはメタ情報で流行っているのかといった細かい話には触れたくありません。ただ、Facebookや他のサービスを名乗る人物から情報提供を受ける際の一般的なアドバイスはあります。気をつけてください。フィッシング詐欺の可能性があります。Facebookには、メッセージが本物かどうかを確認する方法を説明したヘルプページがあります。(そして、ハッキングされたと思われる場合、Facebook 自撮り写真の提出を求めることもあります。)ただし、Facebookは攻撃の明確な兆候の一つとして「アカウントを更新または特定の操作を行わないと、アカウントに何らかの影響が出るという警告」を挙げています。あなたが言っているのは、まさにそれではないでしょうか?

とはいえ、正当な情報提供の要求と攻撃を区別するのが難しい場合があり、ユーザーは概して困った状況に陥っています。そして、テクノロジー企業はあまりにも頻繁に、顧客を悪意ある人物のなすがままに放置しています。FacebookやMessengerのユーザーに対する特定の攻撃が根強く残っていることに、私は驚かされ続けています。特に、何年も続いている攻撃がいくつかあります。ある攻撃では、誰かがあなたの知り合いのアカウントを偽装し、友達追加を依頼します。あなたは既にその人と友達であることを忘れ、同意してしまいます。すると、なりすまし犯はあなたのコンテンツへのより高度なアクセス権を持つことになります。別のハッキングでは、誰かが友人のアカウントを乗っ取り、あなたが見たいと思うかもしれない動画へのリンクを装ったメッセージを送信します。そのリンクは有害です。賢いユーザーならこんなことには騙されないでしょうが、なぜ企業はこのような攻撃を未然に防ぐことができないのでしょうか?Metaがこれらの容易に識別できる攻撃を認識できないのは、何か難解なコンピュータサイエンスの理由があるのでしょうか?それとも、広告の最適化やメタバースの構築よりも優先順位が低いだけでしょうか?

ご質問は[email protected]までお送りください。件名に「ASK LEVY」とご記入ください。

ウェットホットAIチャットボットの夏へようこそ

終末クロニクル

2022年で最も印象に残る終末的な瞬間を12月に振り返ってみましょう。世界最大の水槽「アクアドーム」が破裂し、ベルリンの凍てつく街路に1,500匹もの希少な海洋生物が死の苦しみに身を委ねたのです。ニューヨーク・タイムズ紙の報道によると、「ロビーから噴き出した264,000ガロンの水で、建物の外の通り全体が水浸しになり、植物は根こそぎにされ、隣のリンツ・チョコレートショップから届いた何百個ものチョコレートボールの中に散乱していた電話機も引き抜かれました」とのことです。2023年、これを超えることはできるでしょうか?

画像にはラベル、テキスト、シンボル、記号が含まれている可能性があります

最後になりましたが、重要なことです

WIREDはCESに出展中。ラスベガスへは行かず、自宅で爆弾低気圧や大気圏の川をお楽しみいただけます。最新ガジェット情報はこちらでチェックしてください。

腎臓提供者に報酬を支払う時が来ました。 

究極のダビデとゴリアテの戦い:ガイアナの弁護士がエクソン社とその国政府と戦い、沖合掘削を阻止しようとした。

ビッグバン。量子物理学。チップの発明。そしてアリソン・ウィリアムズ。

画像にはロゴ、シンボル、商標、テキスト、ラベルが含まれている場合があります