
iStock/センサースポット
AIが生成した偽ポルノの台頭は、おそらく避けられないものだった。Redditの小さなコミュニティが、機械学習を用いて性的ではない写真を加工し、ポルノ動画にシームレスに移植するデスクトップアプリケーションを開発・改良した。
RedditユーザーのDeepFakesAppが作成したFacesAppは、比較的初歩的な機械学習技術を用いて、動画の静止画に顔画像を合成し、動画クリップを繋ぎ合わせます。現在までに作成された動画のほとんどは、有名女優のショートビデオです。
このアプリはMotherboardによって最初に報じられました。この技術は昨年末からRedditで話題になっていましたが、誰でも偽造ポルノ動画を作成できるデスクトップアプリは今週初めにリリースされました。本稿執筆時点で、このサブレディットには29,000人が登録しています。
「技術の発展を考えれば、驚くことではありません」と、ポルノ規制と性的虐待画像を専門とするダラム大学ロースクールのクレア・マクグリン教授は言う。「この技術が普及したおかげで、おそらく私たちが認識しているよりもはるかに多くのことが起こっているのでしょう。」
FakesAppソフトウェアは現在Googleドライブ上にホストされています。ダウンロードの別のミラーもMegaにアップロードされています。Googleドライブアカウントの管理者は当初のインタビュー要請には応じましたが、本記事の公開時点では質問には一切回答していません。Googleも、自社のサーバー上でこのソフトウェアをホストすることが利用規約に違反しているかどうかという質問には回答していません。
法律の改正
有名人以外の人物を映した動画はまだ作成されていないようですが、静止画の加工によって合意のない性的画像が作成された例は数多くあります。「フォトショップで加工されたと気づかなければ、人々はそれが自分の画像だと思い込んでしまいます」とマクグリン氏は言います。「虐待やハラスメント、家族や雇用主への悪影響は同じです。フォトショップで加工されているからといって、被害が軽減されるという根拠はないと思います。」AIが生成したフェイクポルノ動画は、この問題をさらに悪化させるだけです。
今月初め、オーストラリア人男性が、継娘の画像をPhotoshopで加工し、性行為や獣姦行為に及ぶ女性の写真に合成したとして、懲役12ヶ月の判決を受けました。男性はこれらの画像を芸術作品だと表現していました。
北ジャージー州のある女性も、就職活動中の企業が偽造された自身のヌード画像をオンラインで発見した件について告発しました。これらの画像は当初、彼女のMySpaceアカウントから盗まれたもので、作成者として告発された男が裁判にかけられています。この事件は、男が別の女性のプライバシーを侵害したとして逮捕された後に初めて発覚しました。
インドの女優ジョティ・クリシュナも、自身の写真が偽ポルノ画像に使用されたことについて声を上げており、これは数え切れないほどの事例の一つです。2015年には、インドで2人の少年が他の女優の偽動画を作成したとして逮捕されました。
英国では、偽造された性的画像や動画に関する法律は曖昧です。合意のない偽造画像の作成を対象とする具体的な犯罪規定はありません。しかし、ブレット・ウィルソン法律事務所の名誉毀損、プライバシー、ハラスメント専門弁護士であるマックス・キャンベル氏は、このような動画を作成した者は、複数の刑事犯罪や民事訴訟で訴追される可能性があると述べています。
リベンジポルノを規制する英国の法律は2015年に施行されました。映画については言及されていますが、偽造画像が対象となるかどうかは明記されていません。スコットランドでは、映画やビデオが「改変」された場合、訴追される可能性があると法律で定められています。
「こうした技術が次々と生み出され、私たちは皆、それに対処しなければなりません。だからこそ、今こそ倫理基準とは何かを議論すべき時です」とマクグリン氏は語る。「人々がこうしたアプリを使う前に、私たちは何を考えるべきでしょうか。その一つは、被害者への影響についてです。法律はそれを反映させるべきです。」
偽物を作る
これらのフェイク動画の作成は技術的に難しいものではありません。チュートリアルではシステムの仕組みと必要なハードウェアについて説明されており、ほとんどの手順は自動的に実行されます。
動画を制作するには、2種類のコンテンツが必要です。1つは、頭部を移植したい元の映像、もう1つは、動画に移植したい人物の頭部の画像または動画のデータベースです。次に、機械学習アルゴリズムを訓練し、顔の形状と位置を決定します。この訓練が完了すると、動画の各フレームに顔を追加できるようになります。
Deepfakesのサブレディット自体には、著名人の合意のないフェイク動画やAIに関する疑問を持つ人々が混在しています。ある会話では、機械学習プロセスで使用される既存の画像データベースについて質問し、別の会話では、GPUの最小要件は何かと質問しています。上記は「フェラチオはいつ?」というタイトルのスレッドです。
現在、FakeAppは主に既存のポルノ動画に女性有名人の顔を追加するために使用されています。しかし、AIを搭載したこのシステムの仕組み上、あらゆる動画にあらゆる顔を追加することが可能となります。合意のない性的虐待画像がオンラインに投稿されるのと同じように(俗に「リベンジポルノ」と呼ばれる)、このAIシステムは、嫌がらせの手段として偽のポルノ動画を作成するために容易に利用される可能性があります。
ポルノサイトが作成した別のツールは、友人や有名人の顔をポルノスターと照合するのにも使用でき、ますます懸念されるツール群に新たなツールが加わったことになる。この顔照合ツールを開発しているMegaCams社はThe Memoに対し、「これが倫理的かどうかは私たちの判断であり、使用するユーザー次第です」と述べた。
ディープフェイクに関するサブレディットで最も人気のあるスレッドの一つは、ディープフェイクという行為が必ずしも悪いことではないと主張している。RedditユーザーのGravity_Horseは、「ここで私たちがやっていることは健全でも名誉あることでもない。軽蔑的で下品で、ディープフェイクの対象となる女性たちを不意打ちするものだ」と書いている。しかし、このユーザーは「悪意」を持って行われているわけではないと主張している。さらに、このRedditユーザーは、「Photoshopで作成されたリベンジポルノ写真が同業者に真剣に受け止められたという話は聞いたことがない。また、有名人のフェイクが一般大衆に本物だと受け取られたという話も聞いたことがない」と続けている。
あるRedditユーザーは、恋人が登場するフェイク動画を購入できるかどうか尋ねました。「例えば、恋人が他の男とセックスしているところを見たいのですが、そのようなサービスは提供されていますか?」また別のユーザーは、「好きな人の動画を編集してポルノ動画にすることは可能でしょうか?」と質問しました。
この記事はWIRED UKで最初に公開されました。