ジャーナリストのヒルケ・シェルマン氏は新著『アルゴリズム』の中で、履歴書の審査や昇進の推奨を自動化するソフトウェアを調査し、差別に関する懸念を提起している。

写真イラスト: WIREDスタッフ、ゲッティイメージズ
WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。
候補者選考アルゴリズムが夢の仕事の妨げになっているのではないかと心配しているなら、ヒルケ・シェルマンの『アルゴリズム』を読んでも不安は解消されないだろう。調査報道記者であり、ニューヨーク大学ジャーナリズム学部教授でもある彼の新著は、人事部がいかに自動化ソフトウェアを駆使しているかを解き明かす。これらのソフトウェアは、偏見を助長するだけでなく、本来の目的である「最適な候補者を見つける」という目的を果たせていない。
シェルマン氏は、求職希望者を装い、履歴書のスクリーニングやビデオゲームベースのテスト、表情、声のイントネーション、ソーシャルメディアでの行動を分析する性格診断など、様々なソフトウェアをテストした。あるツールは、彼女が意味不明なドイツ語で話しかけたにもかかわらず、彼女を仕事に非常に適していると評価した。性格診断アルゴリズムは、彼女のTwitter利用状況に基づいて「堅実性」に高い評価を与え、LinkedInのプロフィールに基づいて低い評価を与えた。
LinkedInのアカウントを削除して自給自足生活を始めたくなるほどですが、シェルマン氏は心温まる洞察も提供しています。長さと明瞭さを考慮して編集されたインタビューの中で、彼女は社会が偏った人事テクノロジーをどう抑制できるかを示唆し、求職者にとってボットに打ち勝つための実践的なヒントを提供しました。
ケイトリン・ハリントン:あなたはここ数年、ウォール・ストリート・ジャーナル、MITテクノロジーレビュー、ガーディアン紙などで、採用におけるAI活用について報道してきましたね。どの時点で「これは本になる」と思ったのですか?
ヒルケ・シェルマン:一つは、2018年に最初のHRテックカンファレンスの一つに参加し、AIツールが市場に参入しつつあるのを目の当たりにしたことです。そこには1万人ほどの参加者、数百のベンダー、多くのバイヤー、そして大企業がいました。これは巨大な市場であり、HRを席巻しつつあると実感しました。
ソフトウェア企業は、採用における人間の偏見を排除する手段として自社製品を紹介することがよくあります。しかし、もちろんAIは取り込んだトレーニングデータの偏見を吸収し、再現することができます。ある履歴書スクリーナーは、応募者の履歴書に「アフリカ系アメリカ人」というフレーズが含まれていると、そのスコアを調整しました。
シェルマン:もちろん企業は自社のツールにバイアスはないと言うでしょうが、どのようにテストされているのでしょうか?その企業で働いていない人がこの点を調べたことがあるのでしょうか?ある企業のマニュアルには、採用AIは18歳から25歳の大学生のデータでトレーニングされていると記載されていました。もしかしたら、そのツールが使用された他の従業員には当てはまらない、18歳から25歳の若者に特有の何かを発見したのかもしれません。
人間の採用担当者がもたらすダメージには限界があり、当然のことながら、それを防ぐよう努めるべきです。しかし、数十万人の従業員を評価するために使われるアルゴリズムに欠陥があれば、一人の人間よりもはるかに多くの人々に損害を与える可能性があります。
当然のことながら、ベンダーはブラックボックスを覗かれることを望んでいません。しかし、雇用主も、見れば否認の余地が生まれるため、見ることを避けているのだと思います。もし何か問題が見つかった場合、その求人に応募した50万人が、何らかの請求を申し立てる可能性があるかもしれません。だからこそ、透明性とテストの徹底を義務付ける必要があるのです。
そうですね、雇用法違反になる可能性があるからです。ベンダーがバイアス監査を実施する場合でも、通常は障がい者差別は含まれていないと書かれていますが、AIが差別を行った場合の責任の所在は明確になっていますか?
訴訟はまだ起きていないので、これは未解決の問題です。多くの弁護士は、採用の決定権は採用企業にあるため、最終的な責任は採用企業にあると主張します。ベンダー側は必ずこう言います。「私たちが決定を下すわけではありません。企業が決定を下すのです。AIが誰かを拒否することはありません。」
場合によってはその通りかもしれませんが、一部のベンダーは、一定のスコアを下回る人に対して自動的に不合格と判断する仕組みを採用していることがわかりました。あるベンダーと学区の間で、AIベースの評価で33%を下回るスコアを取った人は不合格と規定するメールのやり取りがありました。
雇用主は皆、これらのツールが最も適任の候補者を見つけてくれることを期待していると思いますが、それが実現するという証拠はあまりありません。雇用主が人件費を大幅に節約しているのを目にしてきました。多くの場合、彼らが望んでいるのはそれだけだと思います。
AIを盲目的に信頼することはできず、多くの場合人間の介入が必要になるという認識が人々の間で広まりつつある、と、もしかしたらナイーブな考えだったのかもしれない。しかし、多くの企業にとって、その認識は、自動化された人事ソフトウェアの目的である「時間節約」をほぼ打ち消してしまうことになる。
多くのベンダーはディープニューラルネットワークを用いてこのAIソフトウェアを構築しているため、ツールの予測が何に基づいているのかを正確に把握していないことがよくあります。裁判官からなぜ誰かを不合格にしたのかと尋ねられた場合、多くの企業はおそらく答えられないでしょう。これは重要な意思決定において問題となります。ツールのファクトチェックは可能になるべきです。
現在成功している従業員を対象にアルゴリズムをトレーニングする場合、過去の採用決定に偏見が根付いていると、その偏見を永続させることになるように思えます。
まさにそのことを発見した内部告発者から何人か話を聞いたことがあります。あるケースでは、履歴書選考担当者が、その会社で働いていた人たちの履歴書を使って訓練を受けました。統計的なパターンを調べた結果、履歴書に「野球」と「バスケットボール」という言葉がある人は採用に成功し、数点の加点が加算されることが分かりました。一方、「ソフトボール」という言葉がある人は評価が下がっていました。そして言うまでもなく、アメリカでは履歴書に「野球」とある人は通常男性で、「ソフトボール」とある人は通常女性です。
採用におけるAIの活用についてはある程度知っていましたが、既に職に就いている人の解雇や昇進の判断にAIが活用されていることについてはあまり知りませんでした。この点について、どのような懸念をお持ちですか?
ある企業は、オフィスでスワイプ入力した際に得られるキータグデータを用いて、最も生産性の高い従業員を把握しました。もちろん、オフィスで過ごした時間数だけでは生産性は分からないため、この指標には欠陥があります。しかし、彼らは昇進の判断材料としてこのデータを活用し、パンデミック中に人員削減を余儀なくされた際には、誰がそれほど成功していないかを判断するためにこのデータを活用しました。ですから、データが利用可能になれば、企業にとって非常に魅力的な活用方法になると思います。
ゲームベースの性格診断や表情分析を、人相学や骨相学といった古代の疑似科学と比較されていますが、なぜそのような関連性を感じたのですか?
おそらく「ゲイダー」研究が発表されたことがきっかけだったと思います。これは、アルゴリズムと出会い系アプリの写真を用いて、ゲイまたはストレートと自認する人々の外見の本質を探ろうとした研究です。外見的なシグナル、表情、体の動き、声のイントネーションなどは、私たちの本質を表すという根深い信念が、いまだに根強く残っています。19世紀には、犯罪者と非犯罪者の顔が違うと主張する表情分析や、筆跡分析といった過去の事例もありました。科学的な裏付けは全くありませんでしたが、魅力的な要素はありました。今では表情やその他の外見的なシグナルを定量化する技術がありますが、実際には意味がないのに、一部の企業がそれに意味を見出してしまうという問題があります。
コンピューターは笑顔を数値化できますが、その笑顔の裏に私が幸せかどうかは分かりません。つまり、本質は明らかにならないのです。これはAIによるソーシャルメディア分析ツールにも見られます。「あなたのTwitterを見れば、ありのままのあなたの人柄がわかる」といった考え方です。
求職者は、自分の将来に関する決定が恣意的で、自分のコントロールの外にあると感じてしまうほどです。では、どうすれば主体性を取り戻せるのでしょうか?
生成AIは、実際に求職者の力を取り戻しています。ソーシャルメディアでは、ChatGPTを使って履歴書やカバーレターをより良くしたという話をよく見かけます。面接の質問に答える練習に使っている応募者もいます。まさにAI同士の対決と言えるでしょう。
オンラインの履歴書スクリーナーでは、職務内容と履歴書をアップロードすると、コンピューターが重複度を計算してくれます。キーワードを100%使用するのは避けましょう。履歴書が職務内容のコピーと判断される可能性が高いためです。60~80%程度に抑えることが重要です。かつては「目立つようにする」という格言がありましたが、今ではもはや通用しません。履歴書はAIによって審査される可能性が高いため、AIのミスは多くの人が考えるよりも起こりやすいからです。ですから、1つの列にまとめ、「職務経験」や「スキル」といった明確にラベル付けされたセクションを設け、コンピューターが読み取れるようにしましょう。
応募後にLinkedInでリクルーターに連絡するのも、注目を集めるのに役立つかもしれません。多くのリクルーターと話をした結果、リクルーターが最初に見るのは企業のウェブサイトなので、企業のウェブサイトから直接応募するのも良いと分かりました。その後、LinkedInやIndeedなどの求人プラットフォームに目を向けます。
良いヒントですね。また自信が湧いてきました。
そして、私は変化は可能だと考えています。AI採用ツールのテストを開始し、その結果を公開する非営利団体が必要だと思います。実際、私はシード資金を獲得しました。多くの大学は、テクノロジーと社会が急速に変化していることを理解しており、社会問題に取り組む人々と技術的な問題に取り組む人々を結集する必要があると考えています。しかし、ジャーナリストには特別な何かを提供できると考えています。なぜなら、私たちは常に現場の声に耳を傾けているからです。データジャーナリズムを活用することで、こうした大きな問いに対する信頼できる答えを見つけることができるのです。
これらのツールを規制する上で政府はどのような役割を果たすべきだと思いますか?
一部の専門家は、予測ツールが重要な意思決定に利用される際に、そのテストを行う政府の認可機関を設けるべきだと主張しています。しかし、膨大な作業になるため、政府にそれができるかどうかは分かりません。政府が透明性を高め、データへのアクセスを開放してくれることを願っています。そうすれば、研究者、科学者、ジャーナリストが自らテストを実施できるようになるでしょう。それは大きな第一歩となるでしょう。