今年初め、MITで新興AI技術に関するカンファレンスで講演した後、業界ベンダーで溢れるロビーに入ると、アフリカの平原を彷彿とさせる背の高い草や低木が生い茂る、開いたままのドアに目が留まりました。そこで偶然、Intelの主力プロジェクト「AI for Good」であるTrailGuard AIに出会いました。Intelはこれを、野生動物の密猟犯罪に対する人工知能ソリューションと説明しています。サバンナの人工植物や音の中を歩き、デジタルスクリーンの前に出ると、私のトレッキングの様子が映し出されていました。AIシステムが私の動きを検知し、私の顔のデジタル写真を撮影していました。顔は四角で囲まれ、「密猟者」というラベルが赤くハイライトされていました。
手渡されたのは、私のぼやけた画像と象の写真がプリントアウトされたもので、そこにはTrailGuardのAIカメラが、年間3万5000頭の象が殺される前に密猟者を捕獲するようレンジャーに警告を発しているという説明文が添えられていました。善意に基づいた行動だったにもかかわらず、私は思わず疑問に思いました。もし野生でこんなことが起こったら?犯罪者扱いされた今、地元当局は私を逮捕しに来るだろうか?AIに対して自分の無実をどう証明すればいいのだろうか?誤検知は、肌の色が濃い場合に特に精度が低いことで知られる顔認識などのツールによるものなのか、それとも私に何か別の原因があるのか?Intelのコンピュータービジョンから見れば、誰もが密猟者に見えるのだろうか?
Intelだけではありません。ここ数年で、GoogleからHuaweiまで、多くのテクノロジー企業が「AI for Good(社会貢献のためのAI)」というスローガンの下、独自のプログラムを立ち上げています。これらの企業は、犯罪、貧困、飢餓、病気といった深刻な問題に対処するために、機械学習アルゴリズムなどの技術を活用しています。5月には、フランスのエマニュエル・マクロン大統領が、Facebookのマーク・ザッカーバーグ氏をはじめとするAI活用企業のリーダー約60名をパリで開催された「Tech for Good Summit」に招待しました。同月、ジュネーブの国連は、XPrizeのスポンサーによる第3回AI for Global Good Summitを開催しました。(ちなみに、私は2回講演しています。)マッキンゼーが最近発表した「AI for Social Good」に関するレポートでは、世界で最も緊急かつ解決困難な問題にAIを活用していると主張する160件の事例を分析しています。
AIを活用した社会貢献プログラムは、しばしば真の興奮をもたらす一方で、より厳しい監視も招くべきです。AIを最も必要としている人々に活用するには、善意だけでは不十分です。実際、こうしたプロジェクトをめぐる騒ぎは、テクノロジーによる解決主義の匂いが漂っており、適切な安全対策を講じずに脆弱な人々を対象にAI実験を行うことの根本原因やリスクを覆い隠してしまう可能性があります。

写真:千葉康義/AFP/ゲッティイメージズ
自社の利益だけでなく、公共の利益のためのツール開発に乗り出したテクノロジー企業は、すぐにジレンマに陥ります。世界の多くの地域が直面している解決困難な社会問題や人道問題に関する専門知識が不足しているからです。だからこそ、インテルのような企業は、野生生物の密輸問題に関してナショナルジオグラフィックやレオナルド・ディカプリオ財団と提携しています。また、Facebookは災害後の行方不明者捜索で赤十字と提携しています。IBMの社会貢献プログラムだけでも、NGOや政府機関と19のパートナーシップを結んでいます。パートナーシップは賢明な選択です。シリコンバレーのような限られた地域に住むエンジニアが、自分たちの知識の乏しい地球規模の問題にAIツールを展開するようなことは、社会にとって最も避けるべきことです。
より深刻な問題は、どんな巨大な社会問題も、最も優秀な企業技術者が最も由緒ある国際機関と提携して提案する解決策に還元できないということです。インテルのAI for Goodプログラムの責任者にコメントを求めたところ、トレイルガードの設置現場で受けた「密猟者」というレッテルは誤りで、公開デモンストレーションは現実とは一致していないと言われました。インテルは、実際のAIシステムは絶滅危惧種のゾウの近くにいる人間や車両を検知するだけで、密猟者かどうかの判断は公園管理官に委ねられていると断言しました。こうした微妙な違いがあるにもかかわらず、AIカメラは密猟の潜在的な原因、つまり汚職、法の支配の無視、貧困、密輸、そして象牙への根強い需要を検知することはできません。依然として技術的解決主義に固執する人々は、企業のAIアプリケーションが特定の狭い分野で機能するからといって、長年社会を悩ませてきた広範な政治的・社会的問題にも有効だろうという誤った思い込みを抱いています。
企業の無償プロジェクトが商業的利益と衝突するケースも少なくありません。今年初め、パランティアと世界食糧計画(WFP)は、人道危機における食糧供給の改善を目的としたデータ分析の活用を目的とした4,500万ドルの提携を発表しました。しかし、パランティアと軍の契約に起因するデータプライバシーや監視といった問題を懸念する市民社会団体を中心に、すぐに反発が起こりました。パランティアのプロジェクトは、ヨルダンの難民支援団体マーシー・コープによる人道支援活動に役立っていますが、抗議活動参加者やパランティアの従業員の一部は、米国国境で移民・関税執行局(ICE)が移民を拘束し、家族を引き離すのを支援するのをやめるよう要求しています。
企業の意図が一貫しているように見えても、現実には多くのAIアプリケーションにおいて、現在の最先端技術は世界中の人々に適用するとかなり劣悪な状態です。研究者らは、特に顔認識ソフトウェアは、有色人種、とりわけ女性に対して偏見を持っていることが多いことを発見しました。このため、顔認識の世界的なモラトリアムや、サンフランシスコなどの都市で事実上禁止するよう求める声が上がっています。限られた学習データに基づいて構築されたAIシステムは、不正確な予測モデルを作成し、不公平な結果につながります。善のためのAIプロジェクトは、多くの場合、実証されていない技術を使ったパイロットベータテストに相当します。特に意味のある同意なしに、社会的に弱い立場の人々を対象に現実世界で実験を行うことは受け入れられません。そして、AI分野では、これらのシステムが故障し、その結果人々が傷ついた場合、誰が責任を負うのかをまだ解明できていません。
これは、テクノロジー企業が公共の利益のために努力すべきではないと言っているわけではありません。AIが私たちの生活に大きな影響を与えようとしている今、企業にはより大きな責任があります。まず、企業とそのパートナーは、善意から、リスクを軽減する責任ある行動へと転換する必要があります。AIツールが長期的にもたらす可能性のある利益と害の両方について、透明性を確保する必要があります。ツールに関する広報活動は、誇大宣伝ではなく、現実を反映するべきです。インテルは、将来の混乱を避けるため、当該デモを修正することを約束しました。問題に最も近い地域住民を設計プロセスに関与させ、プロジェクトを進めるかどうかを判断するために、独立した人権評価を実施する必要があります。全体として、企業は、AIツールでは解決できないことを謙虚に認識し、あらゆる複雑な地球規模の問題に取り組むべきです。
WIRED Opinionは、幅広い視点を代表する外部寄稿者による記事を掲載しています。その他のオピニオン記事はこちらをご覧ください。オピニオン記事は[email protected]までお送りください。
WIREDのその他の素晴らしい記事
- アマゾンに挑戦した移民たち
- Disney+、スター・ウォーズ、そして常に変化する正典
- 競走馬の安全を守るために最適化されたダート
- 在宅勤務の人へのプレゼントアイデア15選
- ウィキペディアの操り人形の穴に突き落とされる
- 👁 より安全にデータを保護する方法。さらに、AIに関する最新ニュースもチェックしてください。
- 💻 Gearチームのお気に入りのノートパソコン、キーボード、タイピングの代替品、ノイズキャンセリングヘッドホンで仕事の効率をアップさせましょう