生成AIシステムはオープンソースやクローズドソースだけではない

生成AIシステムはオープンソースやクローズドソースだけではない

最近、 Googleから流出したとされる文書が、オープンソースAIがGoogleやOpenAIよりも競争力を持つと主張しました。このリークは、AIシステムとその多くの構成要素を研究者や一般の人々とどのように共有すべきかという、AIコミュニティにおける継続的な議論を浮き彫りにしました。近年、生成型AIシステムが次々とリリースされているにもかかわらず、この問題は未解決のままです。

多くの人は、これを二者択一の問題として捉えています。システムはオープンソースかクローズドソースか、という二者択一です。オープン開発は権限を分散化するため、BigScienceのBLOOMに見られるように、多くの人々がAIシステムに共同で取り組み、それぞれのニーズと価値観を反映させることができます。オープンであることで、より多くの人々がAI研究開発に貢献できるようになりますが、アクセスが増えるにつれて、特に悪意のある行為者による危害や悪用の可能性が高まります。GoogleのオリジナルのLaMDAリリースのようなクローズドソースシステムは、開発組織外の行為者から保護されていますが、外部の研究者による監査や評価を受けることはできません。

私は、OpenAIのGPT-2を含む生成AIシステムのリリースを、これらのシステムが広く利用可能になり始めた当初から主導し、研究してきました。現在はHugging Faceで倫理的なオープン性の検討に重点を置いています。この研究を通して、オープンソースとクローズドソースは、生成AIシステムのリリースにおける選択肢のグラデーションの両端であり、単純な二者択一の問題ではないと考えるようになりました。

さまざまな生成AIソフトウェアとそのオープン性レベル、および対応するリスク考慮事項を示すチャート

イラスト:アイリーン・ソライマン

勾配の一方の極端には、あまりにも閉鎖的であるため一般に知られていないシステムがあります。明白な理由から、これらの具体的な例を挙げることは困難です。しかし、勾配の一歩先では、動画生成などの新しいモダリティにおいて、公開されている閉鎖型システムがますます一般的になりつつあります。動画生成は比較的最近の開発であるため、それがもたらすリスクとそのリスクを軽減する最善の方法に関する研究や情報は限られています。Metaが2022年9月にMake-a-Videoモデルを発表した際、モデルを共有しない理由として、誰でも簡単にリアルで誤解を招くコンテンツを作成できることなどの懸念を挙げました。代わりに、Metaは研究者が段階的にアクセスできるようにすると述べました。

グラデーションの中間に位置するのは、一般ユーザーが最も馴染みのあるシステムです。例えば、ChatGPTとMidjourneyはどちらも公開ホスト型システムであり、開発組織であるOpenAIとMidjourneyがプラットフォームを通じてモデルを共有し、一般ユーザーが入力して出力を生成できるようにしています。広範なリーチとノーコードインターフェースを備えたこれらのシステムは、有用であると同時にリスクも伴います。ホスト組織外の人がモデルを操作できるため、クローズドシステムよりも多くのフィードバックを得ることができますが、外部の人が持つ情報は限られており、例えばトレーニングデータやモデル自体を評価するなど、システムを徹底的に調査することはできません。

勾配の反対側では、トレーニングデータからコード、モデル自体に至るまで、すべてのコンポーネントが完全にオープンで、誰もがアクセスできる状態にあるシステムが「完全にオープン」です。生成AIは、オープンな研究と、GoogleのBERTのような初期のシステムから得られた教訓に基づいて構築されています。BERTは完全にオープンでした。今日、最も多く利用されている完全にオープンなシステムは、民主化と透明性に重点を置く組織によって先駆的に開発されています。Hugging Face(私も参加しています)が主催するBigScienceやBigCode(ServiceNowと共同で主導)などのイニシアチブや、EleutherAIのような分散型コレクティブによるイニシアチブは、世界中の多くの言語や人々を含むオープンシステムの構築における人気のケーススタディとなっています。

確実に安全なリリース方法や標準化されたリリース基準は存在しません。また、標準を定めるための確立された機関も存在しません。ELMoやBERTといった初期の生成AIシステムは、2019年にGPT-2が段階的にリリースされるまでは、ほぼオープンでした。GPT-2は、ますます強力になるシステムを責任を持って導入すること、例えばリリースや公開の義務はどうあるべきかといった新たな議論を引き起こしました。それ以来、特に大規模組織のシステムは、モダリティを問わずクローズド化へと移行し、これらのシステムを開発・導入できるリソース豊富な組織への権力集中に対する懸念が高まっています。

導入とリスク軽減のための明確な基準がない場合、リリースの意思決定者は、様々な選択肢のトレードオフを自ら比較検討しなければなりません。勾配フレームワークは、研究者、導入者、政策立案者、そして一般のAIユーザーが、オープンかクローズかという二者択一の枠組みを超えて、アクセスを体系的に分析し、より適切なリリース決定を行うのに役立ちます。

システムのオープン性に関わらず、すべてのシステムには安全性に関する研究と安全対策が必要です。完全に無害で偏りのないシステムは存在しません。クローズドシステムは、広く利用される前に内部調査が行われることがよくあります。ホスト型またはAPIアクセス可能なシステムには、大規模なスパムを防ぐためにプロンプ​​トの数を制限するなど、独自の安全対策スイートを備えることができます。また、オープンシステムには、責任あるAIライセンスなどの安全対策も必要です。しかし、これらの種類の技術的規定は、特に強力なシステムの場合、万能薬ではありません。プラットフォームのコンテンツモデレーションポリシーなどのポリシーとコミュニティガイダンスも安全性を強化します。研究室間で安全性に関する研究と教訓を共有することも有益です。また、スタンフォード大学の基礎モデル研究センターやAIパートナーシップなどの組織は、オープン性のレベルを超えてモデルを評価し、規範に関する議論を主導するのに役立ちます。

AI分野における倫理的かつ安全な作業は、オープンからクローズへのグラデーションのどの段階でも実現可能です。重要なのは、ラボがシステムを導入する前に評価を行い、リリース後のリスクを管理することです。グラデーションは、ラボがこの決定を慎重に検討するのに役立ちます。このスキームはAIの現状をより正確に反映しており、必要不可欠なニュアンスを加えることで、リリースに関する議論を改善することができます。


WIRED Opinionは、幅広い視点を代表する外部寄稿者による記事を掲載しています。その他の意見記事は こちらでご覧いただけます。ご意見・ご感想は[email protected]までお寄せください