
WIRED / ゲッティイメージズ / jameslee1
英国各地の警察は人工知能(AI)の可能性に気づき、今やその活用を開始している。試験運用には、顔認識システム、犯罪発生場所の予測、意思決定支援システムなどが含まれる。しかし、その仕組みは複雑で混乱しており、これらの技術が実際に誰かの役に立っているという証拠はほとんどない。
「これらの試験は、あまり透明性のある方法で評価されていないようだ」と、英国王立防衛安全保障研究所(RUSI)の国家安全保障とレジリエンス研究員であるアレクサンダー・バブタ氏は述べている。「この種の技術の大規模導入を進める前に、現場における意思決定にどのような影響を与えるかについて、より多くの証拠が本当に必要だ。」
RUSIとウィンチェスター大学による新たな報告書は、英国全土の警察による機械学習の活用状況を調査し、使用されているシステムに関する透明性がほとんどなく、その有効性に関する研究も不足していると結論付けています。報告書は、警察がシステムをどのように活用すべきかを規定し、プライバシーと人権が確実に保護されるよう、新たな政策を策定すべきだと提言しています。
警察による顔認識システムの活用は、疑わしい結果をもたらしたことで、最も注目を集めています。ロンドン警視庁とサウスウェールズ警察は、群衆をスキャンして写真データベースと一致する顔を識別するライブ顔認識システムを試験的に導入しています。レスターシャー警察も顔認識システムを試験的に導入しています。ウェールズ警察のシステムの最初の実世界試験では、2,470件の一致候補が確認されましたが、そのうち2,279件は誤認識でした。その後、誤認識率は改善しています。
ロンドン警視庁は、2016年と2017年のノッティング・ヒル・カーニバルで顔認識システムを使用しました(2018年には使用が中止されました)。この技術は最初の年には容疑者を特定できず、2年目は98%の確率で誤判定しました。
「この試験運用がどのように行われ、どのように評価されるかについて、明確な戦略がないように思えました」と、バブタ氏はロンドン警視庁によるこのシステムの活用について述べた。ロンドン警視庁は顔認識技術の試験運用を継続しており、将来的に評価結果を公表する予定だ。ロンドン市長サディク・カーン氏の責任追及を目的として設立されたグレーター・ロンドン・オーソリティー(GLA)は、この技術に関する「法的枠組みと適切な規制」の欠如を批判する書簡を市長に送付した。
批判にもかかわらず、顔認識技術は成功を収めている。サウスウェールズ警察の警官たちは、自社の技術を用いた逮捕事例についてツイートしている。「どこに導入しても、自動顔認識技術は今後も悪者を捕まえ続けるだろう」と、2017年12月のツイートには記されている。
続きを読む:英国警察は拘留に関する判断にAIを活用しているが、貧困層に対する差別になる可能性がある
では、警察による機械学習とAIの活用拡大について、どうすれば良いのでしょうか?RUSIの最新報告書は、警察活動を監督する内務省がAIの実験に関する実務規範を策定すべきだと提言しています。また、警察大学などの警察機関は、AI主導の意思決定の影響を受ける人々に、システムが利用されたことを伝えるためのガイダンスを作成するべきだと提言しています。
重要なのは、この報告書が機械学習アルゴリズムは常に人間による監視が必要であると示唆していることです。「機械学習アルゴリズムは、初期化・実装後、そのまま放置してデータ処理を行わせるべきではありません」と報告書は勧告しています。「機械学習アルゴリズムは、提供される予測支援が可能な限り正確で偏りのないものであり、不規則性が生じた場合は速やかに対処するために、常に『注意と警戒』を怠ってはならないのです。」
顔認識は氷山の一角に過ぎません。ケント警察は5年以上にわたり、犯罪発生場所を予測するアルゴリズムシステム「PredPol」を活用してきました。このシステムは、過去の犯罪データ(種類、時間、場所)を用いて、犯罪発生場所を予測します。当初の試験運用では、路上暴力が6%減少したと報告されていましたが、近年は犯罪が増加しています。
ダーラム警察は、意思決定を支援するアルゴリズムの一つを変更し、貧困層に偏っていないか調査しました。ノーフォーク警察も、窃盗事件のデータを分析し、捜査官に更なる捜査が必要かどうかの助言を提供するシステムを試験的に導入しています。ノーフォークとダーラムの両事件において、機械学習システムは警察官に情報を提供することを目的としており、最終的な判断を下す技術ではありません。
「アルゴリズムの使用が現場での警察官の意思決定に実際にどのような影響を与えるかを調査した研究は著しく不足している」とバブタ氏は述べている。警察官がアルゴリズムの出力が正しいと信じ、それを「盲目的に」従うのではないかと疑問を呈している。米国で犯罪予測に使用されているアルゴリズムの分析では、無作為の人間を予測した場合と同程度の精度しか得られなかったことが判明した。また、Pro Publicaの調査では、このアルゴリズムが黒人に対して偏見を持つ可能性もあることが明らかになった。
「警察がこれらのツールをどのように導入すべきか、あるいは試験的に導入すべきかについて、明確な政策枠組みが現時点では存在しません」とバブタ氏は述べる。「これらのツールは現在、かなり限定的な用途にしか使用されていませんが、この技術にはさらに多くの可能性が秘められています。明確な規制とガバナンスの枠組みが欠如していることは懸念すべきことです。」
この記事はWIRED UKで最初に公開されました。