ユーザーからの反発を受け、Adobeはクリエイターの作品をどのように利用するかを明確にせざるを得なくなりました。しかし、Adobeは信頼できるのでしょうか?

写真:ジャスティン・サリバン/ゲッティイメージズ
WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。
Adobeの新しい利用規約(2月にひっそりと更新されていた)をユーザーが初めて知ったとき、激しい反発が巻き起こった。Adobeはユーザーに、「自動および手動の両方の方法で」コンテンツにアクセスし、「(Adobeの)サービスとソフトウェアを改善するために機械学習などの技術を使用する」と説明していた。多くの人は、この更新を、Adobeの自動生成AI「Firefly」のトレーニングのために、ユーザーに作品への無制限のアクセスを許可するよう強制するものだと解釈した。
アドビは火曜日遅くに、サービス利用規約の更新版で、ローカルまたはクラウドに保存されているユーザーのコンテンツでAIをトレーニングしないことを約束し、ユーザーにコンテンツ分析をオプトアウトするオプションを与えたことを明確にした。
知的財産訴訟の渦中にある今回の利用規約更新で用いられた曖昧な表現は、多くのアーティストが作品をAdobeに過度に依存していることから、アーティストたちの間で深刻な懐疑心が広がっていることを浮き彫りにした。「彼らはすでに私たちの信頼を裏切った」と、ライアットゲームズのシニアストーリーボードアーティスト、ジョン・ラム氏は述べている。これは、受賞歴のあるアーティスト、ブライアン・ケシンジャー氏が、自身の作品スタイルを模倣した画像が、同意なしにAdobeのストックイメージサイトで自身の名前で販売されているのを発見した出来事に言及している。今月初め、故写真家アンセル・アダムスの遺産管理団体は、Adobeが自身の作品のAIによる模倣作品を販売しているとして、同社を公に非難した。
アドビの最高戦略責任者、スコット・ベルスキー氏は、アーティストたちが抗議を始めたとき、機械学習とは同社の非生成型AIツールを指すと説明し、懸念を和らげようとした。画像内のオブジェクトをシームレスに削除できるPhotoshopの「コンテンツに応じた塗りつぶし」ツールは、機械学習によって行われる多くのツールの1つだ。しかし、アドビは、更新された規約によって同社にコンテンツの所有権が与えられるわけではなく、ユーザーのコンテンツをFireflyのトレーニングに使用することはないと主張しているが、この誤解が、同社の市場独占と、このような変更がいつでもアーティストの生活を脅かす可能性があることについて、より大きな議論を引き起こした。ラム氏は、アドビの説明にもかかわらず、同社がクリエイターの同意なしに、自社のプラットフォームで作成された作品をFireflyのトレーニングに使用すると、いまだに信じているアーティストの1人だ。
Photoshopの所有者であり、PDFの作成者であるAdobeは、30年以上にわたり業界標準として君臨し、クリエイティブクラスの大多数を支えてきました。製品デザイン会社Figmaの買収は、その規模の大きさを示す独占禁止法上の懸念から、2023年に阻止され、断念されました。
AdobeはFireflyがAdobe Stockで「倫理的にトレーニングされた」と明言しているが、長年のストックイメージ投稿者であるエリック・アーカート氏は、「AdobeがFireflyのAIをトレーニングした方法に倫理的な問題は何もなかった」と主張し、Adobeは個々の投稿者からの画像に対する権利を一切保有していないと指摘している。アーカート氏は当初、ストックイメージサイトのFotoliaに自身の画像を掲載し、そこで生成AIの用途を明記していないライセンス条項に同意していた。その後、Fotoliaは2015年にAdobeに買収され、Adobeはアーカート氏の明示的な同意なしに同氏の写真を使ってFireflyをトレーニングすることを許可した。「今回の利用規約変更の文言は、Adobe Stockの利用規約で見たものと非常によく似ている」とアーカート氏は述べている。
Fireflyの導入以来、アーティストの中にはAdobeのメンバーシップを解約し、AffinityやClip Studioといったツールに乗り換えるという難しい(そして骨の折れる)決断を下した人もいます。一方で、Adobeというソフトウェアに縛られていると感じている人もいます。「仕事の都合でAdobeをやめることはできません」とアーカート氏は言います。
Adobeはこれまでもクリエイティブコミュニティへの責任を認めてきました。2023年9月、同社はアーティストの作品の不正利用から保護することを目的とした立法イニシアチブである連邦偽装防止法(FAIR法)を発表しました。この提案は、商業目的で使用される意図的な偽装のみを対象としており、有効性(アーティストのスタイルで「偶然に生成された」作品は保護されない)とプライバシー(意図を証明するには、ユーザーからのプロンプトを保存および監視する必要がある)に関する疑問が生じています。
Adobe以外でも、作品の真正性確認と知的財産の盗難防止を支援する新たな方法を模索する組織が存在します。シカゴ大学の研究チームは、学習データを「汚染」し、画像生成AIモデルの反復処理にダメージを与えるツール「Nightshade」と、アーティストがAI企業から独自のスタイルを「隠蔽」するツール「Glaze」を開発しました。規制面では、ラム氏も所属するコンセプトアート協会が、クラウドファンディングによるロビー活動を通じてアーティストの権利擁護に取り組んでいます。