ロードAI報告書は「ビッグファイブ」のデータ窃盗と倫理的失敗を警告

ロードAI報告書は「ビッグファイブ」のデータ窃盗と倫理的失敗を警告

画像には電子機器やハードウェアが含まれている可能性があります

ヴラドグリン / WIRED

貴族院は、英国における人工知能の利用と開発に関する広範囲にわたる報告書の中で、政府に対し、アルゴリズムによる偏りを抑制し、大手テクノロジー企業によるデータ管理の独占を阻止するよう求めた。

政府関係者、学者、企業を含む200人以上の証人から10ヶ月近くにわたり証拠収集を行った後、人工知能特別委員会は、英国で事業を展開する大手テクノロジー企業によるデータ独占を阻止するため、競争・市場庁を活用するよう政府に要請した。「(英国企業が)データセットにアクセスできるようにし、ビッグ5(あるいはその正体不明の企業)によってデータが操作されないようにする必要がある」と、委員会のティモシー・クレメント=ジョーンズ委員長は述べ、Amazon、Facebook、Google、Twitter、Microsoftを非難した。

この報告書はまた、AIの世界における倫理的リーダーとしての英国の役割を強く強調し、アルゴリズムの偏りを特定し、AIシステムが意思決定に至る過程を人々がより容易に理解できるようにするツールの開発を求めています。ロンドン大学キングス・カレッジのデジタル経済講師、ニック・スルニチェク氏は、経済的な観点から見ると、これは非常に理にかなっていると述べています。「英国がAIへの投資において米国や中国に追いつくのは、真の課題です」と彼は言います。「その代わりに、より低コストでリーダーシップを発揮する方法を考えなければなりません。そこで倫理的な側面が非常に役立つ可能性があります。」

クレメント=ジョーンズ氏は、極端なケースでは、監査人がアルゴリズムの意思決定の根拠を解明できない場合、規制当局はアルゴリズムを全面的に拒否する用意をしておくべきだと述べている。「アルゴリズムを用いて下される意思決定が非常に重要な場合、最初からそのレベルの説明可能性や理解可能性を主張する状況も考えられます」と同氏は述べている。これらの規則は、英国内で開発されたアルゴリズムだけでなく、英国国民に関する意思決定に使用されるあらゆるアルゴリズムに適用される。

委員会はまた、AIシステムの規制責任を、Ofcom、Ofgem、情報コミッショナー事務局(ICO)といった既存の規制当局に委ねるべきだと提言している。しかしながら、重要なのは、これらの機関への資金増額を求めたり、新たな責任を遂行するためにどのような体制を整えるべきかを示したりしていない点だ。ケンブリッジ・アナリティカ事件を受けて、ICOは、研究者アレクサンダー・コーガンから不正に取得したFacebookデータを同社が保有していた証拠を求めて同社の事務所を捜索するための令状を受け取るまで、裁判所から4日間も待たされた。

続きを読む: 2018年、機械は偏見なく学習を始めなければならない

報告書は、データ倫理・イノベーションセンター、AI評議会、政府AI局、そして民間セクターのアラン・チューリング研究所など、新たに設立された政府機関をいくつか名指ししているが、これらの組織が政府のAI戦略にどのような情報を提供し、影響を与えるのかについては詳述していない。「これらの機関は、活動範囲が狭すぎるのではないかと懸念されます」と、ユニバーシティ・カレッジ・ロンドンの公共部門機械学習研究者であるマイケル・ヴィール氏は述べている。

ヴィール氏によると、報告書はAI規制に関して多くの賢明な提言を行っているものの、政府のAI政策を施行するために規制当局に必要な具体的なリソースを提供するには至っていないという。1998年のデータ保護法は既に個人に、自分に関する自動化された意思決定の根拠について説明を受ける権利を与えているものの、これが実際に執行されることはほとんどないとヴィール氏は指摘する。

「規制当局に現状の法律を運用する十分な権限がない状況では、より多くの機関が問題を解決できるという考えは極めて問題だ」とヴィール氏は言う。彼が望むのは、規制当局が様々な業界で活躍できる幅広いAI専門家にアクセスできることだ。

スルニチェク氏はまた、英国がEUを離脱すれば、大企業による個人データの潜在的な悪用を制限するための厳格な政策を導入することがますます困難になるのではないかと懸念している。彼は、5月25日に施行される欧州一般データ保護規則(EU一般データ保護規則)を、英国が単独で交渉するのが困難な広範な法規制の例として挙げ、「英国がそのようなものを制定する上で、これほどの力を持つとは思えません」と述べている。

報告書はまた、AIによって一部の職種の需要が減少するにつれ、政府と産業界はキャリア全体を通して人材の再訓練の責任を負わなければならないと警告した。報告書は、特定分野のスキル不足を補うために新たに発表されたプログラムである国家再訓練制度に政府が投入する資金に産業界が同額を拠出することを推奨した。

クレメント=ジョーンズ氏は、これらの資金は自動化によって労働者を奪う企業だけでなく、業界全体で調達すべきだと述べている。また、政府がテクノロジー業界に特化したビザを増発しない限り、英国は熟練AI人材の不足に悩まされ続けるだろうと警告した。昨年11月、政府は「Exceptional Talent(卓越した才能)」ビザの発給数を2,000人に倍増させると発表したが、新たな制度下では、これらの追加割り当てビザは芸術、科学、デジタルテクノロジーの分野で共有されるため、AI研究者がビザを取得するたびに、熟練した科学者や芸術家が1人失われることになる。

しかし、AIシステムの説明可能性を高め、偏りを減らすという目標を達成するには、学際的なアプローチが必要だと、オックスフォード大学とアラン・チューリング研究所の研究者であるサンドラ・ワヒター氏は指摘する。規制当局と新設のAI機関には、倫理学者、社会科学者、法律専門家が混在し、ケースバイケースで公平性を判断する必要がある。「これらは非常に重要な社会問題であり、技術的な答えだけでは解決できないでしょう」とワヒター氏は語る。

この記事はWIRED UKで最初に公開されました。