OpenAI の GPT-3 と同じくらい強力な AI をどのように制御するのでしょうか?

OpenAI の GPT-3 と同じくらい強力な AI をどのように制御するのでしょうか?

テキストジェネレータは、おそらく世界で最も印象的なAIと言えるでしょう。今のところ、人間は物事がうまくいかないようにするために、限定的に利用されています。

画像にはテキスト、数字、記号、アルファベットが含まれている場合があります

ゲッティイメージズ/WIRED

世界に新たなAIのおもちゃが登場しました。GPT-3と呼ばれるこのモデルは、OpenAIのテキスト生成モデルの最新版であり、その能力に多くの人が驚嘆しています。ただし、その誇大宣伝は行き過ぎかもしれません。

GPT-3は、前例のない45TBものテキストデータを入力した機械学習システムです。この膨大な学習により、GPT-3は、わずか数語または数文を入力するだけで、物語、コード、法律用語など、様々な文書コンテンツを生成することができます。ベータテストではすでに驚くべき結果が得られています。しかし、当初は有望な結果が得られたものの、GPT-3はより厳しい審査に直面しています。

先週、FacebookのAI責任者であるジェローム・ペセンティ氏がGPT-3で作成されたプログラムからバイアスが生じると指摘したことで、このモデルは批判にさらされた。問題のプログラムはツイート生成ツールで、誰でも単語を入力すると、AIが280文字以内の関連性の高い文章を生成するというものだった。

出力は奇妙なものから真に賢明なものまで様々です。例えば、私が「ザッカーバーグ」と入力したとき、GPTの最初の提案は「ザッカーバーグがネクタイをしない理由についての突飛な推測です。彼はいつか、結んだネクタイを丸めて瞬間接着剤でしっかりと封をして飲み込むつもりです。そして、それを胃から外科手術で取り出し、まるでテクノロジーに詳しい人なら誰でもそうなる運命にあるかのように振る舞うつもりです」でした。一方、2番目の提案はより身近なものでした。「ザッカーバーグには近づかないでください。今最も危険なのは、テクノロジー企業が金融に参入することです」。

ペセンティ氏は「ユダヤ人」「黒人」「女性」「ホロコースト」といった単語をテストし、悲惨な結果を導き出しました。恐ろしい結果ですが、驚くべきことではありません。GPT-3はインターネット全体(Googleブックス、Wikipedia、コーディングチュートリアルなど)から集めた1750億のパラメータを用いて学習されたため、コードにはバイアスが含まれています。学習データに基づいて人間の偏見(人種差別や性差別などを含むが、これらに限定されない)を模倣するAIシステムは、既に十分に文書化されています。真の問題は、このシステムが将来商用化される前に、OpenAIがこの問題に対して何ができるのかということです。

ツイートジェネレーターの開発者であるスシャント・クマール氏によると、OpenAIの対応にはそれほど時間はかからなかったという。プログラムがリリースされるとすぐに、OpenAIから連絡があり、監視方法について説明を受けた。そして、問題のあるツイートが(数は少なかったものの)現れ始めた頃、彼は同社の創設者兼CTOであるグレッグ・ブロックマン氏と会議を開いた。ペセンティ氏が問題を報告してから1日も経たないうちに、OpenAIは有害コンテンツフィルターAPIをリリースした。このAPIは、GPT-3によって作成されたすべてのコンテンツを1から5の有害度スケールで評価し、2を超えるコンテンツはモデレーション対象としてフラグ付けされる。

OpenAIは、自らのシステムが完璧であると主張したことは一度もありません。2019年2月にシステムの前身であるGPT2を初めて公開した際、危険な応用への懸念から一般公開されませんでした。GPT-2が完全版として公開されたのは、OpenAIが「悪用を示す強力な証拠がない」ことを確認した後のことでした。

この慎重なアプローチは継続されています。GPT-3への期待が高まるにつれ、CEOのサム・アルトマン氏はGPT-3を「やりすぎ」とさえ呼び、次のようにツイートしました。「素晴らしい成果です(温かいお褒めの言葉、ありがとうございます!)が、依然として深刻な弱点があり、時に非常にばかげたミスを犯します。AIは世界を変えるでしょうが、GPT-3はまだほんの始まりに過ぎません。まだ解明すべきことがたくさんあります。」

そして、バイアスが表面化し始めた時も、アルトマン氏は防御的にならず、「言語モデルにおけるバイアスと安全性について、皆さんと同じ懸念を抱いています」とペセンティ氏にツイートした。「それが、ベータ版からスタートし、アプリを公開する前に安全性レビューを実施する大きな理由です」

毒性フィルターは万能の解決策ではありませんが、一般公開前にどのような作業が必要かを示しており、OpenAIがそれに取り組む意思があることも示しています。「それが現在ベータ版である理由です」とクマール氏はアルトマン氏の意見に同調して述べます。「これほど画期的な技術なら、その可能性をすべて見極める必要があります。今のところ、それが何ができるのか、私たちにはわかりません。」

OpenAIはこの記事に関するコメント要請には応じなかった。しかし、Twitterのスレッドでは、あらゆる種類の生成AIモデルは「人種差別的、性差別的、あるいは有害な言語など、明白かつ拡散的な有害な出力を表示する可能性がある」と述べている。GPT-3ベータ版にアクセスできるユーザーには、危険な可能性のあるアプリケーションを構築した場合、アクセスが削除される可能性があるという使用ガイドラインが配布されている。「私たちは、嫌がらせ、意図的な欺瞞、過激化、アストロターフィング、スパムなど、身体的または精神的危害を引き起こす可能性のあるユースケースをサポートしていません」とOpenAIは述べている。

GPT-3のリスクはまだ全て明らかになっていませんが、その威力は容易に実証されています。この技術は分かりやすいものです。「コーディングの知識がない人でも、直感的に操作できるので使いやすいと感じる人が多いです」と、キングス・カレッジ・ロンドンの医学生で、ベータテストをいち早く体験したカシム・ムニエ氏は言います。「ただ指示を出すだけで、自動的に書き込んでくれます。」

数百人のテスターは完全なモデルにはアクセスできず、テキストボックス形式のAPIのみにアクセスできます。プロンプトに入力して、何をしてほしいかを示すだけで、その通りに動作します。期待する出力を得るには、プロンプトを何度か書き直す必要があるかもしれませんが、文字通りそれだけです。テスターたちは既にその威力を実証しています。あるテスターは詩を生成し、別のテスターは即座にWebデザインのコードを作成しました。中にはセラピストのように振る舞うように指示したテスターもいます。

「この技術を渡された瞬間から、すぐに触ってみたくなりました」とムニエ氏は語る。「だって、その可能性はとてつもなく大きいんですから」。彼は当初、複雑な医学的疑問に答えるツールを開発していたが、現在はGPT-3を使って作家の思考停止を解消する短編小説作成アプリの開発に取り組んでいる。もしあなたが物語を書いていて、インスピレーションが途切れたとしても、GPTを搭載したShortlyアプリがあなたの代わりに、論理的に、一貫性を持って、あなたの文体で物語を書き続けてくれるだろう。

GPT-3が並外れた能力を発揮するのはまさにこの点です。たった一つの文、あるいは数語からでも、5つの段落からなる、よく練られた文章を生成することができます。「GPT-3の能力を見て、本当に驚きました」とムニエ氏は言います。「創造性という点では、人間と見分けがつきません。」

使いやすさにもかかわらず、深刻な結果を招く可能性があります。例えば、インターネットがフェイクニュースで溢れかえることなどです。これはGPT-2でも重要な懸念事項でしたが、この最新バージョンではコンテンツの大量生産がさらに容易になるでしょう。最近の別のTwitterスレッドで、ペセンティ氏はGPT-3の欠陥に対する批判を続け、OpenAIはクマール氏のようなリスクの高いサービスを最初から抑制すべきだったと示唆しました。しかし、早期の実験がなければ、多くの問題が気づかれずに潜り込んでしまう可能性があります。バイアスやフェイクニュースは簡単に予測できる問題ですが、予測できないものについてはどうでしょうか?

「私たちがまだ気づいていない偏見は間違いなくたくさんある」と、オックスフォード大学人類の未来研究所の上級研究員、アンダース・サンドバーグ氏は言う。「私たちが持つ奇妙な偏見を検出するツールとして、このようなシステムを使い始めたとしても、私は驚かないだろう。」

サンドバーグ氏は、OpenAIがこのAPIを自由に使えるようにしたのは正しい選択だったと考えている。「このAPIは多くの創造性を解き放ち、比較的早い段階で興味深い問題を発見する基盤となります」と彼は言う。「使うために秘密保持契約に署名しなければならない」ような、より閉鎖的なシステムでは、これほどのイノベーションは生まれないだろう。なぜなら、最もリスクの高い用途を見出せないからだ。「だからこそ、事前の調査とテストは非常に有用です。特に、人々が全く突飛なことに挑戦する時にはなおさらです」とサンドバーグ氏は言う。「非常に多くの発見が得られるのです」

問題が発生したらすぐに対処できます。また、OpenAIはAPI経由でのみアクセスを提供しているため、問題のあるものはシャットダウンできます。「OpenAIは仲介者として機能しているので、もし悪意を持って大規模に利用され始めたとしても、それを検知してシャットダウンすることができます」とベータテスターのHarley Turan氏は述べています。「これはGPT-2で採用されたアプローチよりもはるかに安全です。」OpenAIは、独自の利用規約を施行するだけでなく、「有害なバイアスの兆候をラベル付けして介入するためのツールの開発」に取り組んでいると述べており、さらに独自の調査を実施し、潜在的な悪用を特定するための学術機関と協力しています。

しかし、OpenAIに責任を委ねるのは長期的な解決策にはならないかもしれない。「テクノロジー企業がコンテンツモデレーターになると、必ず悪い結果に終わる。それが原則だ」とトゥラン氏は言う。「なぜなら、企業に道徳的権威を集中させているからだ」。OpenAIを運営する人々が善良で道徳的な人々であるかどうかは問題ではない。ただ、こうした決定が営利企業によって行われるとなると、少し厄介になるだけだ(OpenAIは昨年、非営利企業から「限定営利」企業へと移行した)。

アルトマン氏は、OpenAIは「私たちのような企業が世界に及ぼす可能性のある悪影響について、十分に考慮する必要がある」と考えているとツイートした。そして、公式声明において、同社はこの立場を堅持し、「これは業界全体の問題であり、個々の組織が責任を放棄したり先送りしたりすることが容易です。しかし、OpenAIはそうしません」と述べた。同社の憲章には、OpenAIの「第一の受託者責任は人類に対するものである」と明記されており、AI開発競争に勝つために安全性を犠牲にすることはないとされている。

代替的な規制オプションは数多く存在し、それぞれに長所と短所があります。GPT-3システム自体が、その悪影響を軽減する方法さえあるかもしれません。「逆説的なのは、これらのテキストシステムは、自分が書いたものである確率を計算するのが実に得意だということです」とサンドバーグ氏は言います。つまり、GPT-3は、荒らし行為を助長するのではなく、偽ニュース自体を抑制することができるのです。

「汎用技術こそが、真に世界を変革するものです」とサンドバーグ氏は述べ、GPT-3は責任ある使い方さえ理解できれば、まさにそれを実現する可能性を秘めていると考えている。「情報処理の新しい方法は、非常に多様なアプリケーションに大きな影響を与えるでしょう。つまり、その結果を正確に予測することはできないということです」と彼は言う。「非常に強力な技術が急速に登場している今、これは非常に憂慮すべき事態です。」

時間はかかるし、リスクは避けられないが、検閲はそれらに対処する方法ではない。より良い選択肢は、GPT-3に取り組む際に、これらの疑問や問題を誰もが意識することだ。「理想的には、人々が自分たちがもたらす影響を理解してほしい」とサンドバーグは言う。「多くのエンジニアリングは、地平線を見上げて『これは実際に私たちの文化のどこに当てはまるのか』を考えるよりも、物事をうまく機能させることに時間を費やしがちだ。この認識を広く広めることができれば、物事をより安全で、より有用なものにすることができると私は考えている。」


Digital Societyは、テクノロジーが社会をどう変えていくかを探るデジタルマガジンです。Vontobelとの出版提携により制作されていますが、すべてのコンテンツは編集上独立しています。テクノロジーが社会の未来をどのように形作っていくかについてのストーリーをもっと知りたい方は、Vontobel Impactをご覧ください。


この記事はWIRED UKで最初に公開されました。

続きを読む