
ozalp/iStock
政府の「ナッジユニット」は、機械学習アルゴリズムを使用して学校や診療所のパフォーマンスを評価する実験を行っている。
行動洞察チーム(BIT)は昨年、公開データを分析できる機械学習モデルの試験運用を行ってきました。このモデルは、学校を査察するオフステッド(Ofsted)や、イングランドの医療・社会福祉を規制するケア・クオリティ・コミッション(Care Quality Commission)などの機関による意思決定の一部を自動化することを目的としています。BITの研究責任者であるマイケル・サンダース氏によると、BITはオフステッドと協力して2018年中にこの技術を実用化する予定です。「オフステッドと協力して、モデルのバリエーションを作成し、彼らが保有する非公開の追加データを活用してモデルを改善しています」とサンダース氏は言います。
学校評価アルゴリズムは、多数の情報源からデータを収集し、学校の潜在的パフォーマンスが不十分かどうかを判断します。このシステムは、無作為な検査と比較して、より多くの不十分な学校を特定するのに役立つと言われています。考慮される情報には、無償給食を受けている児童の数、教師の給与額、各教科の教師数などが含まれます。これらのデータは、Ofstedが運営するウェブサイト「Parent View」に保護者から提出された学校レビューから抽出されたデータと組み合わせられます。
「これらのレビューに見られる特定の言葉や感情は、学校の成績があまり良くないことを特に予測するものです」とサンダーズ氏は言う。BITの試験運用中のデータセットには、学校の財務実績に関する情報も含まれていた。
アルゴリズムによる偏りを防ぐため、生徒の民族性と宗教に関するデータはデータセットから意図的に除外された。アルゴリズムの決定に他の要因よりも影響を与える要因もあるが、サンダース氏はそれが何であるかを明かすことを拒否した。その理由の一つは、アルゴリズムがどのように決定を下すのかを学校に知られたくないからであり、もう一つは、これらのアルゴリズムがどのように機能しているかを正確に把握することが難しいからだと彼は言う。「このプロセスはややブラックボックス的です。それがこのシステムの目的のようなものなのです」と彼は言う。
「公的な説明責任という観点から、この件に関して透明性に関する大きな問題があります」と、ロンドン大学ゴールドスミス校の政治経済学者ウィル・デイヴィス氏は述べている。「特に公共サービスの分野では憂慮すべき事態です。教育や医療サービスは、国民が現状を知る権利を持つ分野です。」BITの初期試験はすべて公開データを用いて実施されたが、サンダース氏によると、後続のバージョンのモデルは、組織が使用する場合、非公開データも活用できる可能性があるという。
続きを読む: AI に責任を負わせる: 人間が作成したアルゴリズムは偏見から自由になるでしょうか?
BITはすでにこのソフトウェアを実際のOfstedデータセットで試験運用していますが、実社会での意思決定にはまだ使用されていません。「どの学校をどのカテゴリーに分類するかを決めるのに、このソフトウェアを使うことは絶対に避けたいでしょう」とサンダーズ氏は言います。「私たちは、既にこうした意思決定を行っている専門家を代替しようとは考えていません。」
しかしデイヴィス氏は、こうしたアルゴリズムが公務員への信頼を損なう可能性があると主張している。「このブラックボックス化は、人間には自分の世界を理解する能力がなく、ただ遍在的でいい加減な方法でデータを収集する必要があると言っているようなものです」と彼は言う。「これは様々な形でプロフェッショナリズムへの攻撃です。」
この技術をどのように活用するかは、最終的には教育基準局(Ofsted)とBITと連携する他の組織に委ねられます。しかしサンダーズ氏は、この技術を活用することで学校査察の件数を3分の1に削減し、Ofstedの職員が他の学校とより緊密に連携して改善に取り組めるようになると予測しています。「これらの介入を、最も必要とし、恩恵を受ける可能性が最も高い人々に、より慎重に集中させることができます」と彼は言います。
BITによると、機械学習モデルは、無作為検査のみと比較して、不適格な学校を6倍も特定できるという。また、BITが開発した同様の機械学習モデルは、不適格な一般診療所の95%も特定できると主張している。BITはまた、ソーシャルワーカーが評価の優先順位付けを行い、深刻な交通事故が発生する場所を予測するのに役立つモデルの試験運用を行っている。これらの内部試験に関するデータは公表されていない。
デイヴィス氏は、人々が自動化された機械学習アルゴリズムを過度に信頼し、潜在的に危険な状況を見逃してしまう危険性があると警告する。「潜在的に、非常にリスクの高い意思決定が行われているのです」と彼は言う。「これらすべてに人間による監視が必要なのです。」
BITは機械学習アルゴリズムの正確な価格を明らかにしていないが、サンダース氏によると、地方自治体1社あたりの導入費用は1万ポンドから10万ポンドになる可能性があるという。BITは営利企業であり、内閣府、Nesta、そしてBITの従業員が一部所有している。当初は政府機関内にのみ存在していたが、後にスピンアウトした。
ブラックボックス・アルゴリズムは、米国ではすでに、就職面接の対象者、融資対象者、警察の巡回先などを決定する際に活用されています。多くの場合、これらのアルゴリズムは明確な人口統計データを考慮していない場合でも、特定の民族の人々に対して偏見を持つことが分かっています。「多くの場合、偏見を助長する可能性があります」とデイヴィス氏は言います。「特定の分野で様々な課題に取り組んでいる学校が、実際には非常に深刻な社会問題に取り組んでいるにもかかわらず、失敗しているように見える可能性があります。」
この記事はWIRED UKで最初に公開されました。