AIがもたらす倫理的問題は明らかであり、それをどのように解決できるかを理解する時が来ている。

AIがもたらす倫理的問題は明らかであり、それをどのように解決できるかを理解する時が来ている。

WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。

画像には電子ハードウェアと電子チップが含まれている可能性があります

ロボットが仕事を奪う、あるいは軍用ドローンにAIが使われるなど、人工知能に関する恐ろしい話は尽きません。しかし、AIは害を及ぼす可能性を秘めている一方で、世界に良い影響を与える可能性も秘めているのです。

この力を善のために活用するには、国際協力と、難しい倫理的問題に取り組むための全く新しいアプローチが必要だと、科学誌「サイエンス」に掲載された論説の著者らは主張している。

「がんの診断や気候変動の理解から、リスクが高く労力を要する仕事の遂行まで、AIはすでに社会に良い影響を与える可能性を示しています」と、オックスフォード大学デジタル倫理研究所の副所長であり、この論評の著者の一人であるマリアロザリア・タッデオ氏は述べています。「問題は、この可能性をいかに活用できるかということです。」

その可能性を示す一例として、GoogleのDeepMindのAIが挙げられます。このAIは、ムーアフィールズ眼科病院との共同研究で、50種類の一般的な眼疾患を対象に、94.5%の確率で正しい診断を下しました。また、脳の働きを理解する上でも役立っています。

AIが社会に貢献できる可能性は計り知れないとタッデオ氏は語る。人工知能を活用した技術は、「環境災害から金融危機、犯罪、テロリズム、戦争、飢餓、貧困、無知、不平等、そして劣悪な生活水準に至るまで」様々な問題に取り組む力を持つだろうとタッデオ氏は語る。

例えば、AIは既に数百もの鳥の鳴き声を精査し、鳴鳥が北極の繁殖地に到着した時期を推定するために活用されています。このような分析により、研究者は渡り鳥が気候変動にどのように反応しているかを理解できるようになります。気候変動について学ぶもう一つの方法は、サンゴの画像を見ることです。数百枚のサンゴの画像を見て学習したAIは、今年、研究者による新種の発見に貢献しました。この技術は、サンゴの海洋温暖化に対する耐性を分析するために活用される予定です。

しかし、AIには問題がないわけではありません。AIが社会に良い影響を与えられるようにするためには、まずリスクを理解する必要があります。

人工知能に伴う潜在的な問題として、アルゴリズムに何が組み込まれているかについての透明性の欠如が挙げられます。例えば、チップメーカーのNVIDIAの研究者が開発した自動運転車は2016年に公道を走行しましたが、その運転判断がどのように行われたのかは誰にも知らされていませんでした。

ミスを犯した場合、誰が責任を負うのかという問題もあります。自動運転車を例に挙げてみましょう。自動運転車は、乗員にとって最も安全な方法で行動するようにプログラムされているかもしれませんし、あるいは、他の車の乗員を守るようにプログラムされているかもしれません。その決定をメーカーが下すか、所有者が下すかに関わらず、事故に巻き込まれた人々の運命に誰が責任を負うのでしょうか?今年初め、ある科学者チームが、この決定を乗員に委ねる方法を設計しました。この「倫理ノブ」は、車の設定を「完全な利他主義」から「完全な利己主義」に切り替えるもので、中間の設定は公平性を保つものです。

もう一つの問題は、AIが不当な差別を行う可能性だ。タデオ氏によると、その一例がCompasだ。これは非公開企業が開発し、ウィスコンシン州矯正局が使用しているリスク評価ツールだ。タデオ氏によると、このシステムは仮釈放の可否を判断するために使用されたが、結果的にアフリカ系アメリカ人とヒスパニック系男性を差別する結果となった。フロリダ州ブロワード郡の刑事被告人1万人をジャーナリストチームが調査したところ、このシステムは黒人被告の再犯リスクを現実世界よりも高く予測し、白人被告についてはその逆の予測をしたことが判明した。

続きを読む: AIによる脳のエミュレーションが死の定義を変える

一方、ビッグデータ収集の問題もあります。中国では、様々な情報源から収集されたデータを活用し、AIが都市全体の追跡に活用されています。AIの進歩には、成功するために必要なデータ量が増加する一方です。これは、人々のデータが本人の同意なしに、あるいは本人の知らないうちに収集、保存、操作される可能性が高まることを意味します。

しかしタッデオ氏は、GDPRのような国家レベルおよび超国家レベルの法規制が、境界を定め、原則を施行するために不可欠だと述べています。しかし最終的には、AIは地球規模で開発され、世界中で利用されるようになるでしょう。例えば太陽系外惑星の探査など、宇宙でも利用される可能性があります。そのため、AIを規制する方法は、地球上の境界に限定することはできません。

人工知能(AI)を規制する普遍的な制度は存在すべきではないと彼女は言う。「AIはインフラ整備や国防から教育、スポーツ、エンターテインメントまで、幅広い分野に導入されるでしょう」と彼女は言う。したがって、画一的なアプローチは通用しない。「文化や分野によって異なる違いを考慮する必要があります」。例えば、ある文化では人物の写真を撮ることが許容されると考えられている一方で、別の文化では宗教的な理由で写真撮影が認められない場合もある。

AI技術とその予測される影響の理解に取り組んでいるイニシアチブは既にいくつかあります。例えば、AIの社会的影響に関する欧州初の国際フォーラムであるAI4People、EUのAI戦略、そして人工知能協力に関するEU宣言などが挙げられます。EU宣言は今年初めに署名され、関係者はAI倫理と、欧州の教育・訓練システムの近代化を含むAIの善意ある利用の両面で協力することを誓約しました。

その他の取り組みとしては、「人々と社会に利益をもたらす人工知能に関するパートナーシップ」があり、サイエンス誌の論説委員2名もこのパートナーシップにメンバーとして参加しています。「私たちがこのパートナーシップを設計した目的の一つは、AIを活用して人類が直面する最も困難な課題の解決に貢献することに、より多くの注意と努力を注ぐことができるようにすることです。例えば、健康と福祉、交通、教育、そして科学の進歩などです」と、このパートナーシップの創設共同議長であるエリック・ホルヴィッツ氏とムスタファ・スレイマン氏は述べています。

これらはまだ初期段階ですが、情報に基づいた議論を行うためには、このような取り組みをさらに増やす必要があるとタッデオ氏は述べています。最も重要なのは、私たちがこの件について議論を続けることです。「AIガバナンスに関する議論には、科学者、学者、エンジニア、弁護士、政策立案者、政治家、市民社会、そして企業の代表者を巻き込む必要があります」とタッデオ氏は言います。「私たちは、ポストAI社会の性質と、そのような社会におけるAIの設計、規制、そして利用の基盤となるべき価値観を理解する必要があります。」

結局のところ、私たちは人間に過ぎません。ですから、AIを誤用したり、十分に活用しなかったりするリスクは残ります。

「この点において、AIは電気や蒸気機関と何ら変わりません」とタッデオ氏は言います。「私たちの責任は、AIの活用を人類の繁栄と幸福を促進し、この技術がもたらすリスクを軽減するような形で導くことです。」

この記事はWIRED UKで最初に公開されました。