今年初め、 Googleの人工知能(AI)研究者ティムニット・ゲブル氏は、ワシントン大学のエミリー・ベンダー教授にTwitterでメッセージを送った。ゲブル氏はベンダー教授に対し、テキスト処理におけるAIの近年の進歩がもたらす倫理的問題について論文を書いたことがあるかと尋ねた。ベンダー教授は論文を書いていなかったが、二人は、AIがオンライン上で見られる偏った表現を再現できるという証拠など、AI技術の限界について議論を交わした。
ベンダー氏はDMに関する議論が刺激的だと感じ、それを学術論文にまとめることを提案した。「議論に新たな展開をもたらしたいと思ったのです」とベンダー氏は語る。「私たちはこれまで多くの興奮と成功を見てきました。一歩引いて、どのようなリスクがあるのか、そして私たちに何ができるのかを考えてみましょう。」草稿はGoogleと学術界から5人の共著者を迎え、1ヶ月で書き上げられ、10月に学術会議に提出された。この論文はすぐにAI分野における最も悪名高い研究論文の一つとなる。

先週、ゲブル氏は、論文の撤回または氏名削除を求める上司の要請に反対したため、Googleから解雇されたと述べた。GoogleのAI部門責任者は、この論文は「出版基準を満たしていない」と述べた。その後、2,200人以上のGoogle社員が、この論文の取り扱いについて透明性の向上を求める書簡に署名した。土曜日、ゲブル氏の上司であるGoogleのAI研究者サミー・ベンジオ氏はFacebookで「衝撃を受けた」と述べ、「ティムニットさん、私はあなたの味方です」と宣言した。Google以外のAI研究者も、同社のゲブル氏への対応を公に非難している。
ゲブル氏の突然の辞任のきっかけとなった論文は、この騒動によって異例の力を持つようになった。論文はAI関連界隈でサミズダート(地下出版)のように広まった。しかし、WIREDが確認したこの12ページの文書で最も注目すべき点は、その論争の少なさである。この論文はGoogleやその技術を攻撃するものではなく、仮にゲブル氏がGoogleとの関係を理由にこの論文を発表することを許可されていたとしても、同社の評判を傷つけることはなかっただろう。
この論文は、言語を分析・生成するAIシステムの限界に関する先行研究を概観している。新たな実験は提示されていない。著者らは、言語AIが膨大な電力を消費し、オンラインテキストに見られる好ましくないバイアスを反映する可能性があることを示す先行研究を引用している。また、AI研究者がこの技術をより慎重に扱うための方法、例えば、システム構築に使用したデータの文書化を改善することなどを提案している。
Googleのこの分野への貢献(一部は現在Googleの検索エンジンに導入されている)は言及されているものの、特に批判されているわけではない。引用されている研究の一つは、言語AIにおけるバイアスの証拠を示しており、Googleの研究者によって今年初めに発表されたものである。
「この論文は非常にしっかりとした、綿密な調査に基づいた論文です」と、論文の草稿を見たユニバーシティ・カレッジ・ロンドンの名誉准教授、ジュリアン・コルネビーズ氏は述べている。「どんな研究室でも大騒ぎを引き起こすようなこと、ましてや誰かが職を失うような事態を引き起こすようなことなど、想像もつきません。」
グーグルの反応は、ゲブル氏らが認識していた以上に、企業幹部が倫理的な批判に対して脆弱であると感じていることの証左かもしれない。あるいは、ゲブル氏の辞任は論文発表だけの問題ではなかったのかもしれない。同社はコメント要請に応じなかった。月曜日のブログ投稿で、グーグルのAI倫理研究チームのメンバーは、経営陣が社内の研究審査プロセスをゲブル氏に不利なものにしていると示唆した。ゲブル氏は先週、グーグルのダイバーシティプログラムを批判し、最近のグループメールで同僚にそのプログラムへの参加をやめるよう提案したことが、辞任の理由かもしれないと述べた。
論争の発端となった論文草稿のタイトルは「確率的オウムの危険性について:言語モデルは大きすぎる可能性があるか?」(疑問符の後にオウムの絵文字が含まれている)で、最も活発な AI 研究の流れの 1 つに批判的な目を向けている。

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。
Googleなどのテクノロジー企業は、2010年代初頭からAIに多額の投資を行ってきました。当時、研究者たちは機械学習と呼ばれる技術を用いることで音声認識と画像認識の精度を大幅に向上できることを発見していました。これらのアルゴリズムは、ラベルが付与されたサンプルデータを処理することで、音声の書き起こしなどのタスクにおけるパフォーマンスを向上させることができます。ディープラーニングと呼ばれるアプローチは、学習アルゴリズムをはるかに大規模なサンプルデータとより高性能なコンピュータと組み合わせることで、驚くべき新たな成果を可能にしました。
ここ数年、研究者たちは言語学習モデルを超大規模化する方法も解明しました。ウェブから収集した数十億語のテキストを機械学習アルゴリズムに処理させることで、質問に答えたり、テキストを生成したりするといったタスクにおいて大きな進歩を示しました。これらのシステムは言語の統計的パターンに基づいて動作します。人間のように世界を理解するわけではなく、人間には明らかな間違いを犯すこともあります。しかし、数値計算によって質問に答えたり、流れるような新しいテキストを生成したりするといった、驚くべき偉業を達成することができます。
そうしたシステムの一つであるGoogleのBERTは、同社の検索エンジンが長いクエリを処理する方法を改善するために使用されています。マイクロソフトは、独立系研究機関OpenAIからGPT-3と呼ばれるシステムのライセンスを取得すると発表しました。このシステムは、起業家がメールや広告文の作成にも活用しています。
この進歩は、他の研究者たちに、この新しい言語技術の限界と社会に及ぼす可能性のある影響について疑問を投げかけています。ゲブル、ベンダー、そして共著者たちは、この研究をまとめ、研究コミュニティがどのように対応すべきかを提案しようと試みました。

著者らは、大規模な言語モデルの訓練には、建設現場から廃車場までの自動車と同じくらいのエネルギーを消費すると計算した過去の研究や、AIがオンラインの陰謀論者を模倣できることを示したプロジェクトを指摘している。
論文で引用されている別の研究は、Googleの研究者によって今年初めに発表されたもので、同社独自の言語モデルであるBERTの限界を示しています。ゲブル氏を含まないこの研究チームは、BERTが脳性麻痺や失明といった障害に関するフレーズを否定的な言葉と関連付ける傾向があることを示しました。著者は全員、現在もGoogleに勤務しているようです。
ゲブル氏の辞任を促した論文の中で、彼女と共著者らはAI開発者に対し、言語プロジェクトにおいてより慎重になるよう促している。研究者らは、言語AIの作成に使用されたテキストと、それを用いて構築されたシステムの限界について、より詳細な文書化を行うよう推奨している。また、AIシステムの精度と弱点に関するデータを用いてAIシステムをラベル付けするための、最近提案されたアイデアも読者に紹介している。ゲブル氏がGoogleで共同開発した「モデルレポートのためのモデルカード」と呼ばれるアイデアは、Googleのクラウド部門で採用されている。この論文は、言語システムを構築する研究者に対し、AI開発者の視点だけでなく、システムの出力や判断の影響を受ける可能性のある分野外の人々の視点も考慮するよう求めている。
グーグルの研究責任者ジェフ・ディーン氏は、先週ゲブル氏が辞任した件について、論文の質が低いと主張した声明の中で、論文はより効率的な言語モデルの作成や偏見を軽減する方法に関する研究を引用していなかったと述べた。
ベンダー氏によると、著者らは128件の引用文献を引用しており、今後さらに追加される可能性が高いという。このような追加は学術出版プロセスでは一般的な慣行であり、通常は論文撤回の理由にはならない。また、ベンダー氏をはじめとするAI研究者は、ディーン氏の発言にもかかわらず、AI分野は言語バイアスを確実に排除する方法を発明するまでには程遠いと指摘する。
「バイアスには様々な形があるため、まだ研究段階です」と、アレンAI研究所のCEO、オーレン・エツィオーニ氏は述べています。同研究所はこの問題について独自の調査を行っており、その一部は草稿論文にも引用されています。「この分野で働くほぼ全員が、こうしたモデルの影響力がますます高まっており、責任を持って活用する倫理的義務があることを認識しています。」
WIREDのその他の素晴らしい記事
- 📩 テクノロジー、科学、その他の最新情報を知りたいですか?ニュースレターにご登録ください!
- 命を救うかもしれないDNAデータを探す男
- バッテリーリサイクルの実現に向けた競争 ― 手遅れになる前に
- AIが仕事の会議を運営できるようになりました
- お気に入りのグッズで、ホリデーシーズンに愛猫を甘やかしましょう
- ハッカー用語集: Signal 暗号化プロトコルとは何ですか?
- 🎮 WIRED Games: 最新のヒントやレビューなどを入手
- 🏃🏽♀️ 健康になるための最高のツールをお探しですか?ギアチームが選んだ最高のフィットネストラッカー、ランニングギア(シューズとソックスを含む)、最高のヘッドフォンをご覧ください