テクノロジー業界は今、反省の時を迎えている。マーク・ザッカーバーグやティム・クックでさえ、ソフトウェアやアルゴリズムが私たちの生活を左右することの弊害について公然と語っている。規制を求める声が上がる一方で、あらゆるルールを阻止したり、形を変えたりしようとするロビー活動が活発化している一方で、業界内には自主規制の形態を検討している人々もいる。そこで渦巻いているのが、私たちのデータを操作しているプログラマーやデータサイエンティストは、一種のデジタル版ヒポクラテスの誓いに署名すべきではないか、というアイデアだ。
マイクロソフトは先月、人工知能(AI)が社会に与える影響に関する151ページの書籍を出版した。その中で同書は、医師が「まず害を与えない」という誓約をプログラマーに課すことは「理にかなっているかもしれない」と主張している。火曜日、サンフランシスコでは、テクノロジー企業、政府、非営利団体から数十人のデータサイエンティストが集まり、それぞれの職業倫理規定の草案作成に着手した。
集会での一般的な印象は、統計分析の力で広告をターゲットにしたり、刑事判決に助言したり、ロシアの偽情報活動を偶然可能にしたりする人々が、自分たちの力に目覚め、それを社会全体の利益のために使うべき時が来たというものでした。
「テクノロジーに携わる人々に、『ちょっと待って、これはおかしい』と言える力を与えなければなりません」と、オバマ大統領の下で米国政府のチーフデータサイエンティストを務めたDJ・パティル氏はWIREDに語った(彼の元ホワイトハウスのポストは現在空席)。パティル氏は「Data For Good Exchange」と題されたこのイベントのキックオフを宣言した。参加者リストには、Microsoft、Pinterest、Googleの社員が含まれていた。

ブルームバーグ
パティル氏は、倫理規定を身につけたデータ サイエンティストが企業や組織の仕組みに自ら立ち向かい、刑事司法における偏ったアルゴリズムの導入などを防ぐことを想定しています。
これは、データ分析を生業とする人々にとって魅力的なビジョンだ。「私たちの研究分野はまだ初期段階にあり、ペタバイト規模のAIの世界がもたらす機会と課題を通して社会を導くのは、誰よりも私たちの責務です」と、エンタープライズソフトウェアのスタートアップ企業DataScience.comのデイブ・グッドスミス氏は、火曜日の取り組みのための活発なSlackグループに書き込んだ。
一方で、確信が持てない人もいる。マーケティング会社Valassisのシニアデータサイエンティスト、ショーン・ウィーラー氏は、火曜日の議論をSlackとライブビデオ配信で追っていた。彼は懐疑的な態度で臨み、さらに懐疑的な態度を取った。ウィーラー氏によると、草案のコードには誰も異論のない一般原則が羅列されているように見え、そもそも実務ルールを強制するための当局や法律が存在しない分野に導入されることになるという。データサイエンティスト向けの正式なトレーニングプログラムは増えているものの、ウィーラー氏を含め、現在現場で活躍するデータサイエンティストの多くは独学で学んでいるという。
火曜日の議論では、今後数週間かけて見直し、より広範なフィードバックを得るために公開される20の原則が策定されました。これらの原則には、「偏見は存在する。それを測定し、それに対応する計画を立てよう」「人間の尊厳を尊重する」「倫理的な想像力を働かせる」などが含まれています。プロジェクトの主催者は、この誓約の最終版に10万人が署名することを期待しています。
「テクノロジー業界は最近批判されていますが、それはテクノロジー業界が世界を改善できるというナイーブな信念に対する批判であり、当然のことだと思います」とウィーラー氏は言う。「データ漏洩のような複雑な問題全体を、何らかの倫理規定で解決できるという考えは、まさにそれと同じような傲慢さに陥っているのです。」
火曜日の議論の焦点の一つは、拘束力のない自主的な規範が、職場で倫理的な懸念をあえて提起するデータサイエンティストを本当に保護できるかどうかだった。もう一つの論点は、それがどれほどの効果をもたらすかということだった。
AT&Tのデータサイエンティスト、リシラジ・プラバハン氏は、倫理誓約書の草案作成の取り組みを支持すると述べた。プラバハン氏は、同僚と共に倫理的に問題のある他社とのプロジェクトへの参加を辞退した際、その意向が尊重されたと説明した。しかし、他の社員が代わりに参加することになり、プロジェクトは結局続行されたという。
入手可能な証拠によると、テクノロジー企業は、通常、バランスシートへの直接的な脅威を感じた場合にのみ、倫理的な問題を真剣に受け止める傾向がある。ザッカーバーグ氏は、自社の情報配信に対するコントロールについて反省の意を示しているのかもしれないが、それは2016年の米国大統領選挙におけるロシアの干渉におけるFacebookの役割をめぐる政治的圧力を受けてのことだ。
他社にプラットフォームを提供することで収益を得ているテクノロジー企業には、倫理規定を過度に厳格に規定しない理由がさらにあります。顧客がプラットフォーム上で構築することを躊躇するような行為は、リスクを伴います。
マイクロソフトのAIと社会に関するマニフェストでは、プログラマーのためのヒポクラテスの誓いと、AIの新たな用途に関する倫理審査プロセスについて議論されました。しかし、マイクロソフト社長のブラッド・スミス氏は、マイクロソフトのクラウドサービスを利用してAIシステムを構築する顧客が必ずしも同じ基準を満たすことを期待するわけではないと示唆しています。「これは非常に重要な問題であり、私たち自身もまだ答えを出していません」とスミス氏は言います。「私たちはMicrosoft Wordを開発しており、人々がそれを使って良いものを書くことも、ひどいものを書くこともできることを知っています。」
プライバシー活動家のアラル・バルカン氏は、今週起草されたような倫理規定は、テクノロジーによって引き起こされる社会的な危害をむしろ悪化させる可能性があると主張している。企業が通常通りのビジネスを続ける一方で、倫理規定が美徳の象徴として利用されることを懸念している。「私たちが探るべきなのは、利益のために人間のデータを大量に収集する行為をいかにして止めるかだ」と彼は言う。彼は、アルゴリズムによる危害を防ぐためのより良いモデルとして、今年施行される欧州連合(EU)の一般データ保護規則(GDPR)を指摘する。
パティル氏はかつてLinkedInのチーフサイエンティストを務めていたが、バルカン氏と同様に、テクノロジー企業が自社の個人データを基盤とした製品の影響について慎重に検討できるかどうか懐疑的だ。「ソーシャルプラットフォームを巡る現状や、利益のみを追求するテクノロジー企業の行動を目の当たりにしてきたことから、私たち社会が今、その判断に頼ることはできないと思います」と彼は言う。
パティル氏は、長期的には、火曜日に審議された倫理規定の草案に期待することの一つは、政策立案者がより厳格かつ熟慮された制限を設けるよう促すことだと述べている。「ここでの議論が、政策のあり方を決定づけ始めることを期待しています」と彼は語る。
倫理的な境界
- 機械学習システムを倫理的な範囲内に保つことは、人工知能研究のホットな話題となっている。
- シリコンバレーの最も中毒性の高い製品は、あるスタンフォード大学教授の心理学のヒントに基づいて開発されました。
- Facebookは、ユーザーにどの出版物が信頼できるかを尋ねることで、フェイクニュースの問題を解決しようとしている。