研究者は顔をぼかし、1000のアルゴリズムを起動した

研究者は顔をぼかし、1000のアルゴリズムを起動した

2012年、人工知能(AI)研究者たちは、膨大な画像セット(Webから収集され、手作業でラベル付けされた数千点もの日常的な物体、人物、写真に写った風景)の恩恵もあって、コンピュータービジョンに大きな飛躍をもたらしました。ImageNetとして知られるこのデータセットは、現在でも数千ものAI研究プロジェクトや実験で利用されています。

しかし先週、ImageNet に含まれるすべての人間の顔が突然消えてしまった。データセットを管理する研究者が顔をぼかすことに決めたためだ。

ImageNet が AI の新時代の到来に貢献したのと同様に、それを修正するための取り組みは、無数の AI プログラム、データセット、製品に影響を与える課題を反映しています。

「プライバシーの問題を懸念していました」と、プリンストン大学の助教授でImageNetの管理責任者の一人であるオルガ・ルサコフスキー氏は語る。

ImageNetは、画像内の物体を識別できるアルゴリズムを開発するというコンピューター科学者を募ったチャレンジの一環として作成されました。2012年当時、これは非常に困難な課題でした。その後、ラベル付きのサンプルをニューラルネットワークに入力することで「学習」させるディープラーニングと呼ばれる手法が、従来の手法よりもこの課題に優れていることが証明されました。

それ以来、ディープラーニングはAIのルネサンスを牽引する一方で、この分野の欠点も露呈しました。例えば、顔認識はディープラーニングの特に人気が高く、収益性の高い用途であることが証明されていますが、同時に物議を醸す問題でもあります。米国の多くの都市では、市民のプライバシー侵害や偏見への懸念から、政府によるディープラーニングの利用を禁止しています。これは、ディープラーニングのプログラムが白人以外の顔に対して精度が低いためです。

現在、ImageNetには約1,000のラベルが付いた150万枚の画像が収録されています。これは主に、機械学習アルゴリズムの性能評価や、特殊なコンピュータービジョンタスクを実行するアルゴリズムのトレーニングに利用されています。顔のぼかし処理は、243,198枚の画像に影響を与えました。

ルサコフスキー氏によると、ImageNetチームは、データセット内の顔をぼかしても物体認識の精度に影響を与えないかどうかを検証したかったという。「人物は、これらの物体を写したウェブ写真に写っていたため、データには偶然に含まれていました」と彼女は言う。つまり、ビール瓶の画像で、ビールを飲んでいる人の顔がピンク色のしみのように見えても、瓶自体はそのまま残るということだ。

ImageNetのアップデートと同時に投稿された研究論文の中で、データセットを作成したチームは、AmazonのAIサービスRekognitionを使って顔をぼかし、その後Mechanical Turkの作業員に金銭を支払って選択内容を確認、調整させたと説明している。

研究者らによると、顔をぼかしても、ImageNetで学習させた複数の物体認識アルゴリズムの性能には影響がなかったという。また、これらの物体認識アルゴリズムを用いて構築された他のアルゴリズムも同様に影響がないことも示している。「この概念実証が、この分野におけるプライバシーに配慮した視覚データ収集の実践への道を開くことを期待しています」とルサコフスキー氏は述べている。

有名な画像ライブラリを調整する試みは今回が初めてではありません。2019年12月、「Excavating AI」と呼ばれるプロジェクトがこの問題に注目を集めたことを受け、ImageNetチームは人間のラベル作成者によって挿入された偏見や蔑称を削除しました。

記事画像

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。

2020年7月、UnifyIDの機械学習科学者であるヴィナイ・プラブ氏と、アイルランドのユニバーシティ・カレッジ・ダブリンの博士課程学生であるアベバ・ビルハネ氏は、データセットからコンピューターサイエンスの研究者を含む個人を特定できることを示す研究を発表しました。また、データセットにはポルノ画像も含まれていることを発見しました。

プラブ氏は顔をぼかすのは良いことだと述べているが、ImageNetチームが彼とビルハネ氏の研究成果を認めなかったことには失望している。ルサコフスキー氏は、論文の改訂版に引用文献を掲載する予定だと述べた。

顔のぼかしは、ImageNetデータで学習したアルゴリズムにとって、意図しない結果をもたらす可能性があります。例えば、アルゴリズムは特定の物体を探す際に、ぼかしのかかった顔を探すように学習してしまうかもしれません。

「考慮すべき重要な問題の一つは、顔をぼかしたデータセットで学習させたモデルを展開した場合に何が起こるかということです」とルサコフスキー氏は言います。例えば、そのデータセットで学習させたロボットは、現実世界の顔に戸惑ってしまう可能性があります。

ImageNetの限界を指摘したMITの研究科学者、アレクサンダー・マドリー氏は、ぼかしを入れた顔を含むデータセットで学習したAIモデルは、顔を含む画像を見せられた際に奇妙な動作を見せる可能性があると指摘する。「データ内のバイアスは非常に微妙でありながら、重大な影響を及ぼす可能性があります」とマドリー氏は語る。「だからこそ、機械学習の文脈において堅牢性と公平性を考えるのは非常に難しいのです。」

更新日:2021年3月15日午前11時25分(東部標準時):この記事は、Olga Russakovsky 氏と Aleksander Madry 氏からの追加コメントを含めるように更新されました。


WIREDのその他の素晴らしい記事

  • 📩 テクノロジー、科学などの最新情報: ニュースレターを購読しましょう!
  • ライオン、一夫多妻主義者、そしてバイオ燃料詐欺
  • Clubhouseは急成長中。それを取り巻くエコシステムも同様だ
  • Googleの自社ゲーム開発の壮大な計画はいかにして崩壊したのか
  • なぜ Zoom で自分の顔を見つめずにいられないのでしょうか?
  • パーセベランスの目が捉えた別の火星
  • 🎮 WIRED Games: 最新のヒントやレビューなどを入手
  • 📱 最新のスマートフォンで迷っていますか?ご心配なく。iPhone購入ガイドとおすすめのAndroidスマートフォンをご覧ください。