偽画像を検出してもAIが生成した偽ニュースから私たちを救えない

偽画像を検出してもAIが生成した偽ニュースから私たちを救えない

画像にはハンドバッグアクセサリーアクセサリーバッグ電子機器とカメラが含まれている場合があります

iStock

デジタルフォレンジックの専門家として20年の経験を持つハニー・ファリド氏は、偽造画像の特徴を見抜くようになった。影はしばしば決定的な証拠となる。「影は現場について多くのことを教えてくれます」と彼は言う。「現場の光の性質、光がどこから来ていたかなどです」。偽造者はしばしば影の位置を間違え、あり得ない場所に影を置いたり、影自体を省略したりする。

ファリド氏のキャリアの大半において、デジタルフォレンジックは、あるシンプルな問いに集約されてきた。「それは、映像、画像、あるいは音声記録が記録後に操作されたかどうかを問うことです」と彼は言う。しかし今、問うべきはもはや「この傷は取り除かれたか、あるいはこの場面は改変されたか」ではなく、「そもそもこの場面は存在したのか?」だ。

「今では写真加工の方法が全く新しいものがたくさんあります」とファリドは言う。Photoshopのおかげで、誰でも簡単に、訓練を受けていない人の目に本物と錯覚させるほど巧妙に画像を編集できるようになった。ファリドが裁判所や報道機関のために扱う画像も変化した。誰もがポケットにカメラを持っている今、彼はしばしば、撮影日時も場所も不明で、匿名でウェブにアップロードされたぼやけた映像を目にする。

機械学習の近年の進歩は、ファリド氏を特に不安にさせている。2017年は画像偽造技術にとってまさに豊作の年だった。7月には、ワシントン大学の研究者たちが音声をリアルな口の動きに変換するAIを訓練し、実際には発していない言葉を話しているかのような動画を作成した。グラフィックスカードメーカーのエヌビディアが10月に発表した論文では、機械学習を用いて写真の天候を自動的に変更できることが示されており、夏の日を歩道に雪が積もり、木々に葉が落ちた冬景色に変えることができるという。

Nvidiaの別のグループは、機械学習アルゴリズムを訓練し、無名の著名人の画像を生成することに成功しました。3万枚の写真データベースを20日間学習させたこのソフトウェアは、実物とほとんど見分けがつかないほど高解像度の「写真」を作成することができました。しかし、これらの著名人は現実世界には存在しません。アルゴリズムが想像した、著名人の外見に過ぎないのです。

「説得力のある画像を生成することはますます容易になってきており、それは何十年も前から続いています」と、このアルゴリズムを開発したNVIDIAのグループを率いたヤッコ・レーティネンは語る。「適切なハードウェアと適切なコーディングスキルがあれば、誰でも自分のモデルをダウンロードして独自の[ソフトウェア]を作成することは既に可能です。」

現時点では、レーティネン氏の著名人生成アルゴリズムは、多かれ少なかれランダムに画像を生成します。このアルゴリズムは、著名人の写真に関する現在の知識に一致する画像を作成することを目指していますが、既存の写真を完全に複製するわけでもありません。その結果、かつて楽しんだ映画に端役で出演していたかのような、どこか見覚えのある顔の不気味な集合体が生まれますが、それらは現実には全く存在しません。

レティネン氏によると、将来的にはアルゴリズムに特定の特徴を含めるよう指示できるようになるという。一般的な有名人ではなく、眼鏡をかけ、髭を生やし、肌の黒い人物の写真を作成するように指示するといったことも可能になるだろう。十分な素材を与えれば、アルゴリズムは将来、偽の人間の世界全体を生成できるようになるかもしれない。

レティネン氏の長期的な目標は、人間の顔の微細な変化と同じくらい複雑なものを生成できるアルゴリズムを開発することです。このようなソフトウェアは、例えばビデオゲームで人間のようなキャラクターを生成することをはるかに容易にするでしょう。これは、グラフィックカードメーカーであるNVIDIAの中核事業に近い研究分野です。しかし、無限の数の人間の顔を生成できれば、多くの異なる分野で役立つ可能性があります。例えば、多数の人々の無表情な写真が必要となることが多い医学研究などです。既に複数の心理学者がレティネン氏に連絡を取り、彼のソフトウェアを自分たちの研究に利用できるように改良できないかと尋ねています。

しかし、レーティネン氏は自身の研究には暗い側面があることを認めている。将来、ビデオゲームでリアルな人間を生成できるようになるかもしれない技術は、偽造者が実在の人物の画像を偽造するためにも利用される可能性があるのだ。「これらの研究結果がすべて公開され、オープンに説明されることは極めて重要です」とレーティネン氏は言う。「議論されなければ、悪意のある誰かがいずれにせよそれを実行するでしょう。」

ファリド氏は、画像操作技術がこのように進化していくのを目にしてきた。まず研究論文に登場し、その後市販ソフトウェアに組み込まれる。そしてすぐに偽造品が登場し始める。「この種の技術は真の脅威だと思います」と彼は言う。「技術が改良され、商業化されるまでにはそう時間はかからないでしょう」

続きを読む: フェイクニュース2.0: AIはまもなく人間の声を真似できるようになる

しかし今のところ、デジタルフォレンジックの専門家は、機械生成画像を見分けることに関しては切り札を持っている。カメラセンサーは常に画像に微細なアーティファクトを発生させる。人間の目には見えないが、何を探すべきかを知っていれば容易に検出できる。これらのアーティファクトを特定することで、研究者は画像を撮影したデバイスのモデルを特定し、場合によってはシリアル番号まで特定できる。アルゴリズムで生成された画像にはこれらのアーティファクトがないため、偽造画像であることを見分けるのは比較的容易だ。

しかし、テクノロジーでできることには限界があるとファリド氏は言う。偽の動画が拡散した場合、多くの場合、誰もその内容を分析する機会さえ得られないうちに被害が出てしまう。「メディアはかつてはコンテンツを(検査する)のに数日かかっていたのに、今は数時間しかなく、しかも得られる情報はますます少なくなっている」と彼は言う。もし誰かがトランプ大統領が「北朝鮮に核兵器を発射した」と発言する偽の動画を偽造し、それが拡散すれば、甚大な影響が出る可能性がある。

偽ニュースに対する技術的な解決策を待つのではなく、個人がオンライン上の偽ニュースに対してより疑念を抱くよう、自ら学ぶ必要があるかもしれません。英国のナショナル・リテラシー・トラストが昨年末に発表した報告書によると、子どもや若者は偽ニュースを見分けるスキルを身につけていないことが明らかになりました。今月、オープン大学は、人々がニュースを読んだり共有したりする上で、より良い判断を下せるよう支援するYouTube動画シリーズを公開します。

ファリド氏にとって、オンライン上の偽情報の蔓延を食い止める上で最も大きな役割を担っているのは、TwitterやFacebookといったプラットフォームだ。先週、マーク・ザッカーバーグ氏はFacebookに、今年中に「Facebookを正す」決意を表明した。英国内務特別委員会におけるこのテック大手の最近の態度は、自社のプラットフォーム上で偽情報が拡散する上で、自らが果たしてきた重大な役割に、ようやく気づき始めたことを示唆している。ファリド氏は、偽情報の氾濫はまだ始まったばかりだと懸念している。「このままの道を進み続けると、楽観視できません。オンラインの状況は悪化の一途を辿ると思います」

この記事はWIRED UKで最初に公開されました。