このプログラムのAI搭載テキストは政府を騙す可能性がある

このプログラムのAI搭載テキストは政府を騙す可能性がある

2019年10月、アイダホ州はメディケイド制度の見直しを提案しました。連邦政府の承認が必要となり、連邦政府はMedicaid.govを通じて一般からの意見を募りました。

約1,000件のコメントが寄せられました。しかし、その半分は懸念を抱く市民やネット荒らしによるものではなく、人工知能によって生成されたものでした。そして、ある調査によると、人々は本物のコメントと偽のコメントを区別できないことが明らかになりました。

このプロジェクトは、ハーバード大学の技術系学生マックス・ワイス氏によるものでしたが、当時はほとんど注目されませんでした。AI言語システムが急速に進歩する現在、ディープフェイクによるテキスト操作やその他のAIによる干渉を防ぐために、政府やイ​​ンターネット企業はフィードバックの収集と審査の方法を再考する必要があるという意見もあります。

「政府のウェブサイトでボットが人間の話し方を模倣した関連テキストを生成し、投稿できる容易さは驚くべきことであり、知っておくことが非常に重要だ」と、ワイス氏に実験を倫理的に行う方法について助言したハーバード大学ケネディスクールのラタニヤ・スウィーニー教授は言う。

スウィーニー氏は、問題は政府サービスの範囲をはるかに超えているが、公的機関が解決策を見つけるのは至急だと述べている。「AIは生身の人間の発言をかき消してしまう可能性があります」と彼女は言う。「政府のウェブサイトは変わらなければなりません。」

メディケア・メディケイドサービスセンター(CMS)は、ワイス氏の調査を受けてパブリックコメントシステムに新たな安全対策を追加したと述べているが、具体的な内容については言及を避けている。ワイス氏によると、規制やコメントを公開するための連邦政府ウェブサイトの新バージョンを開発している米国一般調達局(GSA)から、偽のコメントからより効果的に保護する方法について連絡があったという。

政府システムは、過去にも自動化された影響力行使キャンペーンの標的となったことがある。2017年には、ネット中立性規制の撤廃計画に関して連邦通信委員会(FCC)に提出された100万件以上のコメントが自動生成されており、特定のフレーズがコピー&ペーストされて別のメッセージに挿入されていたことが研究者によって発見された。

ワイス氏のプロジェクトは、より深刻な脅威を浮き彫りにしている。ここ数年、言語へのAI応用は目覚ましい進歩を遂げてきた。強力な機械学習アルゴリズムに膨大な量の学習データ(書籍やウェブから収集したテキストなど)を入力すれば、説得力のあるテキストを生成できるプログラムが生成される。これは、無数の有用な応用に加え、あらゆる種類のインターネットメッセージ、コメント、投稿が容易に、そして検知されにくい形で偽造される可能性を示唆している。

「テクノロジーが進歩するにつれて、人間の発言の場が、人間が気づかないうちに操作されるようになる」とスウィーニー氏は言う。ワイス氏は2019年の夏、医療消費者擁護団体で働いていた際に、メディケイドの改正に必要なパブリックフィードバックのプロセスについて知った。こうしたパブリックコメントが、州のメディケイド制度を改正する以前の取り組みに影響を与えてきたことを知ったワイス氏は、コメントを自動生成できるツールを探した。

「コメントが公的記録の一部となるのを邪魔しているのは送信ボタンだけだったので、少しショックを受けました」と彼は言う。

記事画像

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。

ワイス氏は、サンフランシスコのAI企業OpenAIがその年の初めにリリースしたプログラムGPT-2を発見し、偽のコメントを生成して世論の高まりを模倣できることに気づいた。「GPT-2を微調整して実際にコメントを吐き出すのがいかに簡単だったかにも驚きました」とワイス氏は語る。「これは多くの点で比較的懸念すべきことです。」

コメント生成ツールに加え、ワイス氏はコメントを自動投稿するソフトウェアも開発しました。また、ボランティアにAIが生成したコメントと人間が書いたコメントを区別してもらう実験も行いました。ボランティアの正解率は、当てずっぽうの程度でした。

コメントを提出した後、ワイス氏はメディケア・メディケイドサービスセンター(CMS)に通知した。偽のコメントを見分けやすくするために、数文字の誤字脱字があったという。それでも、AIからのフィードバックは数ヶ月間オンラインに掲載されたままだったとワイス氏は語る。

OpenAIは昨年6月、テキスト生成プログラムの高機能版「GPT-3」をリリースした。これまでのところ、GPT-3は少数のAI研究者や企業にのみ公開されており、箇条書きからメールメッセージを生成するプログラムなど、有用なアプリケーションを開発している人もいる。GPT-3のリリース時、OpenAIは研究論文の中で、ワイス氏の研究を認識していたにもかかわらず、GPT-2が悪用された兆候は確認されていないと述べている。

OpenAIなどの研究者たちは、AI生成テキストを識別できるツールをいくつか公開しています。これらのツールは、テキスト内の特徴的な兆候を見つけるために、同様のAIアルゴリズムを使用しています。オンラインコメントプラットフォームの保護にこれらのツールを使用している人がいるかどうかは不明です。Facebookは、このようなツールを使用しているかどうかについてコメントを拒否しました。GoogleとTwitterもコメント要請に応じませんでした。

高度なAIツールが偽コンテンツの作成に使用されているかどうかも明らかではありません。8月、Googleの研究者は、ディープフェイクテキスト検出ツールを使用して5億ページ以上のウェブページを分析した実験の詳細を公開しました。その結果、ツールは自動生成テキストやスパムを含むページを識別できることが分かりました。しかし、これらのコンテンツがGPT-2などのAIツールを用いて作成されたかどうかは明らかではありませんでした。

ネット上の虐待を追跡するスタンフォード・インターネット・オブザーバトリーの研究マネージャー、レニー・ディレスタ氏は、偽テキストの標的となる政府系サイトが増えると予想している。「新しいテクノロジーが登場するたびに、一部の人にとっては道具となり、他の人にとって武器となるのです」と彼女は言う。

政治的に煽られた誤情報は、アメリカ政治において深刻な問題となっている。ハーバード・ケネディスクールのショレンスタイン・メディア・政治・公共政策センターの研究ディレクター、ジョーン・ドノバン氏は、人々の真実認識を揺るがすのに高度なAIは必要ないかもしれないと警告する。「人々の感情は傷つきやすく、そのため、困難な真実よりも都合の良い説明に非常に影響を受けやすいのです」とドノバン氏は言う。


WIREDのその他の素晴らしい記事

  • 📩 テクノロジー、科学、その他の最新情報を知りたいですか?ニュースレターにご登録ください!
  • 「ほぼ無害」ハイカーに関する不穏な真実
  • AlphaGoが人間の学習方法について教えてくれること
  • 自転車を修理してサイクリングフィットネスの目標を達成しましょう
  • 毎日使うアプリに代わる、プライバシー重視の6つのアプリ
  • ワクチンはここにあります。副作用について話し合う必要があります
  • 🎮 WIRED Games: 最新のヒントやレビューなどを入手
  • 🏃🏽‍♀️ 健康になるための最高のツールをお探しですか?ギアチームが選んだ最高のフィットネストラッカー、ランニングギア(シューズとソックスを含む)、最高のヘッドフォンをご覧ください