職場におけるアルゴリズムの見落とされがちな利点

職場におけるアルゴリズムの見落とされがちな利点

作家であり労働弁護士でもあるオーリー・ローベル氏は、AIは雇用や報酬における人間の偏見を軽減するのに役立つと述べています。

アニメーション:ジェームズ・マーシャル

WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。

オーリー・ローベルは、テクノロジーが世界をより良い場所にすることができると信じています。そして、2022年において、それが彼女を少々逆張りの人間にしていることを認識しています。

カリフォルニア州サンディエゴ大学で労働雇用を専門とする法学教授のローベル氏は、テクノロジーとギグエコノミーが労働者に及ぼす影響を研究してきました。その経験から、履歴書の自動審査ツールや、アルゴリズムを用いて仕事を割り当てるアプリといったツールがもたらす潜在的な混乱について深く理解しています。しかし、ローベル氏は、自動化とAIに関する議論は、これらのシステムがもたらす害悪に固執しすぎていると感じています。 

ローベル氏は著書 『平等マシン:より明るく包括的な未来のためのデジタル技術活用』の中で、より明るい見方を推奨しています。彼女は、AIが私たちの生活の最も重要かつ個人的な側面の多くに浸透している様子を概観しています。求職者はますます自動化システムの判断に運命を委ねるようになり、家庭用ヘルスケア機器は大量の個人情報を収集しています。ローベル氏は、これらのツールを慎重に活用すれば、より多様な応募者層やより効果的な医療を提供できると主張しています。彼女はWIREDの取材に対し、AIを社会に良い影響を与える力として捉えていることについて語りました。このインタビューは、長さと明瞭性を考慮して編集されています。

ジェニファー・コンラッド:あなたはこの本を逆説的だと評していますね。AIが有害になり得るという考えが最近注目されていることに、何が問題があるのでしょうか?

オルリー・ロベル

写真:ジェリ・グッドール

オーリー・ローベル:ここ10年、二元論的な議論が多すぎると感じていました。テクノロジー業界関係者は、平等性や分配的正義、公平性といったものにはあまり関心がなく、テクノロジーをテクノロジーそのものとして称賛しているだけです。一方で、「勝者と敗者は誰なのか?そして、異なる権利をどのように守るのか?」と問う人もいます。私はこの二つの議論の橋渡しをしたいと思いました。

問題にばかり目を向けるのではなく、機会や成功を祝福する必要があります。そして、こうした議論に関心を持つ人々はますます落胆しています。特に女性やマイノリティの人々は、大手テック企業で働くことを避けています。これは悪循環であり、社内で多様な意見が聞かれることは少なくなり、批判したり懐疑的な態度をとったりする人々は、その場に身を置く機会が少なくなっています。 

アルゴリズムは正確で完璧な回答を出すと多くの人が思い込んでいます。自動採用の電話やハラスメントの訴えに誰も疑問を抱かなくなる危険性はあるのでしょうか?

私は長年、採用とダイバーシティ&インクルージョンについて研究してきました。アルゴリズムによる意思決定がなければ、多くの差別や格差が生じることは周知の事実です。採用アルゴリズムを導入する際に問うべき問題は、それが人間のプロセスよりも優れているかどうかであり、完璧かどうかではありません。バイアスが存在する場合、その原因は何であり、例えばトレーニングデータを追加することで修正できるのでしょうか?人間としてどれだけバイアスを除去できるのか、そして個々のシステムをどれだけ改善できるのか?

今日、大企業の大多数が何らかの形で履歴書の自動スクリーニングを導入しています。米国雇用機会均等委員会や労働省などの機関は、その主張と結果を検証することが重要です。リスクの原因とその是正可能性について、十分な議論が行われていません。 

 Knack社が開発した「Wasabi Waiter」のようなオンラインゲーム形式の候補者スクリーニング技術の可能性について説明されていますが、このゲームでは、忙しい寿司屋のウェイターを演じる人物が描かれます。これは求職者の評価にどのように効果的でしょうか?

『平等マシン』の表紙

ハシェット提供

心理学やその他の研究から得た知見を活用し、スクリーニング対象をより創造的に考えることが重要です。アイビーリーグの大学を卒業し、スポーツチームのキャプテンを務めた人物など、過去に成功した従業員の経歴だけを重視する、いわゆる「搾取アルゴリズム」だけでは不十分です。

ブラックボックス問題、つまりアルゴリズムが実際に何をしているのか理解するのが難しいという議論はよくあります。しかし、雇用差別訴訟の専門家証人としての私の経験、そして採用に関する研究から言うと、人間の心のブラックボックスを突き破り、何が起こったのかを追跡することも非常に困難です。デジタルプロセスであれば、実際に紙の記録が残り、ゲームや何らかの自動化された感情スクリーニングが、従来のスクリーニング方法よりも、より多様な人材プールを構築する上で優れているかどうかを確認できます。  

適性検査や性格検査が必要な仕事に応募した経験から言うと、その不透明さやフラストレーションを感じます。対面で話せば、自分の適性状態がある程度分かります。ところが、プロセス全体が自動化されていると、何をテストされているのかさえ分からなくなってしまいます。 

多くの人がそう感じています。しかし、私は少し逆説的な意見を述べます。重要なのは、面接をどう体験するかということだけでなく、面接中にどれだけ正確に評価できるかという点です。

面接は仕事のパフォーマンスを予測する上であまり効果的ではないこと、そして面接官は面接から得られる情報を常に過大評価していることを示す研究が数多くあります。中には、ほんの数秒で偏見が入り込むことを示す研究さえあります。もし真剣に仕事に就ける人材のプールを拡大しようとすれば、少なくとも初期段階では、応募者の数が膨大になり、人間が対応しきれないでしょう。

職場におけるこうした偏見の多くは、よく文書化されています。男女間の賃金格差については長年認識されてきましたが、解消するのは非常に困難でした。自動化はこの点において役立つでしょうか?

同一賃金法が制定されているにもかかわらず、男女間の賃金格差が停滞しているのを見るのは、苛立たしいものです。膨大なデータセットが利用可能になった今、状況は改善できると考えています。Textioのソフトウェアは、企業がよりインクルーシブな求人広告を作成し、より多様な応募者層を獲得できるよう支援します。Syndioは、大規模な職場において、労働力の様々な階層における賃金格差を検出することができます。こうした格差は、目に見える形では捉えにくいものです。

直感的に分かりやすいですね。ソフトウェアを使って様々な給与形態や求人広告を横断的に分析すれば、大規模な労働力における正式な職務記述書のベールを突き破り、性別や人種の面で何が起こっているかを把握できます。以前は監査は年に一度の単発的なものと考えていましたが、今では数ヶ月にわたって継続的に監査を実施したり、ボーナスなどの影響で賃金格差が急激に拡大した際にも監査を実施できます。

このアプローチは、保護や公正な評価を受けるために、どれだけのデータを提供するべきかという問題を提起します。職場でのチャットにおけるハラスメントを監視するためにAIを活用するという記事を書かれていましたね。最初に思ったのは、「Slackのメッセージをボットに読ませて本当にいいのか?」でした。ソフトウェアが判断を下すために、これほど多くの情報がデジタル化されることに、人々は安心できるのでしょうか?

プライバシーを防衛手段として重視する傾向と、権力者を隠蔽・保護するものとして重視する傾向の間で、常に緊張関係が存在します。職場における秘密保持契約は、多くの不正行為を隠蔽する手段となってきました。しかし、テクノロジーの進化によって、こうしたトレードオフがより顕著になっています。なぜなら、私たちは監視されていることを認識しているからです。現在では、ハラスメントの報告が複数回行われた場合にのみ、報告がロック解除される通報アプリも存在します。 

インフォーマルワークやギグワークのためのプラットフォームはどうでしょうか?Airbnbは、マイノリティが予約を完了する可能性が低いというデータを受け、ホストとゲストのプロフィール写真の表示を停止しました。しかし、同社は 最近 、黒人ゲストが依然として差別を受けていることを明らかにしました。

これは、デジタル文書の記録と機械学習の計算能力を活用した、積極的な継続的監査と差別検知の物語です。人間による差別は依然として続いていますが、プラットフォーム上で発生する差別は、オフライン市場よりも設計によってより適切に理解、特定、隔離、そして是正される可能性があります。

現在、膨大な量のデータが公開されているため、規制はデータ収集よりも、そのデータの使用方法を制御する方法に重点を置くべきだと主張する人もいます。

まさにその通りです。素晴らしいですね。プライバシーは重要ですが、正確で信頼できるAIと、代表的で偏りのないデータ収集との間には、時に緊張関係が生じることを理解する必要があります。私たちが交わしている議論の多くは、かなり混乱しています。データを収集すればするほど、より疎外されたコミュニティが不釣り合いなほど危険にさらされるという思い込みがあるのです。 

いわゆる「データによって周縁化された」人々についても、同様に懸念すべきです。政府や産業界は、保有するデータに基づいて資源配分を決定しますが、一部のコミュニティは平等に代表されていません。より詳細な情報を得ることの有益な活用例は数多くあります。都市が道路の接続場所を決定したり、国連のイニシアチブが資源不足の学校や村に投資したりしています。衛星画像やスマートフォンのアクティビティさえも、意思決定に利用されています。人類の進歩と公平性について言えば、私たちがより多くのことを知れば知るほど、差別の根源と根本原因を是正し、理解するのに役立つということです。

記事内のリンクから商品やサービスを購入された場合、手数料が発生する場合があります。これは私たちのジャーナリズムを支えるものです。 詳細はこちらをご覧ください