検閲が人工知能に及ぼす影響

検閲が人工知能に及ぼす影響

企業、大学、そして政府が世界中のアイデア、アルゴリズム、そして才能のプールを活用しているため、人工知能は国境によってほとんど制限されていません。しかし、この世界的なゴールドラッシュから生まれたAIプログラムは、依然として根深い文化的隔たりを反映している可能性があります。

新たな研究により、政府の検閲が AI アルゴリズムにどのような影響を与え、それらのアルゴリズムで構築されたアプリケーションにどのような影響を与えるかが明らかになりました。

カリフォルニア大学サンディエゴ校の政治学教授マーガレット・ロバーツ氏と同大学の博士課程学生エディ・ヤン氏は、2つの情報源で訓練されたAI言語アルゴリズムを検証した。1つは中国国内でブロックされている中国語版ウィキペディア、もう1つは中国最大の検索エンジンである百度(バイドゥ)が運営する類似サイトだが、政府の検閲を受けている百度百科(バイドゥ・バイケ)である。百度はコメントを控えた。

研究者たちは、特定の単語やフレーズに対する検閲がAIアルゴリズムによって学習され、それらのアルゴリズムを使用するソフトウェアに取り込まれるかどうかに興味を持っていました。これは、チャットボットや音声アシスタントが使用する言語、翻訳プログラムの表現、あるいはオートコンプリートツールのテキストに影響を与える可能性があります。

彼らが使用した言語アルゴリズムは、大量のテキストにおける単語の出現パターンを分析することで学習します。異なる単語を物理空間内の接続されたノードとして表現し、単語が近いほど意味が類似していることを示します。

たとえば、翻訳プログラムは、2 つの異なる言語におけるこれらの関係を調べることで、未知の単語の意味を推測する場合があります。

UCSDの研究者たちは、得られたAIアルゴリズムに重要な違いを発見しました。研究者によると、これは中国で検閲されている情報を反映しているようです。例えば、中国語版Wikipediaで学習したアルゴリズムは「民主主義」を「安定」などの肯定的な言葉に近い形で表現しました。一方、百科百度で学習したアルゴリズムは「民主主義」を「混沌」に近い形で表現しました。

ロバーツ氏とヤン氏は、これらのアルゴリズムを用いて、ニュースの見出しの感情(肯定的な意味と否定的な意味)を評価する2つのプログラムを構築しました。中国語版ウィキペディアで学習させたプログラムは、「選挙」「自由」「民主主義」などの用語を含む見出しに高い肯定的なスコアを付与し、百度百科で学習させたプログラムは「監視」「社会統制」「中国共産党」といった用語を含む見出しに高い肯定的なスコアを付与することを発見しました。この研究は、2021年3月に開催される公平性、説明責任、透明性に関する会議(FAccT)で発表される予定です。

近年、研究者たちは、多くの人工知能システムに人種や性別に関する偏見が潜んでいる可能性を指摘しています。例えば、ウェブや古書から抽出したテキストで学習したアルゴリズムは、そのテキストを書いた人間の著者が示す偏見を再現するように学習します。2018年には、Googleの研究者たちが画像認識アルゴリズムに文化的偏見が存在することを実証しました。例えば、西洋の結婚式のシーンしか認識できないといった事例です。

記事画像

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。

ロバーツ氏は、今回の研究で見られた差異は、必ずしも政府の検閲だけによるものではないかもしれないと指摘する。一部は自己検閲の結果かもしれないし、百科事典の記事を執筆する人々の文化的な違いによるものかもしれない。しかし、政府の政策がAIシステムに他の形態のバイアスを引き起こす可能性があることを認識することは重要だと彼女は述べている。「これは、政府が形作った訓練データが機械学習の中でどのように現れるかを理解するための出発点だと考えています」とロバーツ氏は述べている。

ロバーツ氏は、研究者や政策立案者は、検閲をより効果的にしたり、特定の価値観を輸出したりするために、将来、政府がAIシステムの訓練方法にどのような影響を与えるかを検討する必要があると述べている。

トロント大学で計算言語学と自然言語処理を専門とするグレアム・ハースト教授は、この研究方法にいくつかの疑問を抱いている。中国語版ウィキペディアと百度百科の違いを綿密に研究しなければ、アルゴリズムの違いを検閲に帰することは難しいとハースト教授は述べている。中国語版ウィキペディアには、反中国的な内容や露骨な民主化支持的な内容が含まれている可能性もあるとハースト教授は指摘する。さらに、感情分析がどのように行われたのか、そしてそこにバイアスが加えられたのかどうかは不明だと付け加えている。

他の人々はそれをこの分野への歓迎すべき貢献とみなしている。

「ある意味、これは驚くことではない」と、AI倫理を研究しFAcctカンファレンスの共同設立者でもあるユタ大学教授のスレシュ・ベンカタスブラマニアン氏は言う。

ベンカタスブラマニアン氏は、欧米のニュース記事で訓練されたAIアルゴリズムには、独自の反中国バイアスが含まれている可能性があると指摘する。「しかし、それが実際に起こっていることを示すための作業を行うことは依然として重要だと思います」と彼は言う。「そうすれば、それがどのように現れるのか、どのように測定するのか、どのようなものなのか、といった疑問が生じ始めるでしょう。」


WIREDのその他の素晴らしい記事

  • 📩 テクノロジー、科学などの最新情報: ニュースレターを購読しましょう!
  • 「ほぼ無害」ハイカーに関する不穏な真実
  • 懸念される新たなコロナウイルス株が出現しています。なぜ今なのでしょうか?
  • 今年中に本を書きたいですか?これらのツールが役立ちます
  • この中国の研究所はAIの大きな進歩を目指している
  • 白人至上主義は「病気」よりもはるかに悪い
  • 🎮 WIRED Games: 最新のヒントやレビューなどを入手
  • 💻 Gearチームのお気に入りのノートパソコン、キーボード、タイピングの代替品、ノイズキャンセリングヘッドホンで仕事の効率をアップさせましょう