人工知能は多くの可能性を秘めており、2019年にはついに技術力とデータの透明性の両方を実現するだろう。
WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。

2018年に人工知能システムが私たちの家庭に浸透したとすれば、2019年は私たちの生活におけるAIの位置づけについて考える年となるでしょう。来年、AIはさらに大きな役割を担うでしょう。気候変動の予測、健康に関するアドバイス、そして支出管理などです。会話型アシスタントは私たちの命令でこれまで以上に多くのことを行うようになるでしょうが、それは企業や国家がその活用についてより透明性を高めた場合に限ります。これまでAIはブラックボックスのままでした。2019年には、AIは開かれた存在へと変わっていくでしょう。
来年は、AIに関する議論のあり方を大きく変える年となるでしょう。テクノロジーへの熱狂や、ロコのバジリスクへの期待に震えるような期待から、来年末までにAIの未来に関する荒唐無稽な憶測は、倫理と民主主義に関する厳しい決断へと変わっていくでしょう。2019年はAIが成長する年となるでしょう。
ボット、トロルファーム、フェイクニュース
少なくとも18カ国で、フェイクニュースの影響で選挙結果が影響を受けています。Facebookだけでも、推定1億5000万人が扇動的な政治広告の標的となりました。
「人がいる場所には、偏った不正確なニュースソースが事実上どこにでも存在します」と、カタール・コンピューティング研究所の研究科学者で、フェイクニュースが選挙に与える影響を研究しているプレスラフ・ナコフ氏は述べている。「調査によると、ユーザーの70%が本物のニュースとフェイクニュースを区別できないことが分かっています」とナコフ氏は付け加えた。彼の研究チームは、フェイクニュースはソーシャルメディア上で本物のニュースよりも6倍速く拡散することを発見した。
ナコフ氏とMITの同僚たちは、ニュースソースがプロパガンダを流布しているかどうかを学習するシステムを開発している。「偽情報と戦うのは容易ではありません。悪意のある人物は常に戦略を変えているからです。しかし、ソーシャルメディアでニュースを共有する際には、通常、ウェブサイトへのリンクを投稿します。私たちはまさにこの点を利用し、記事が掲載されているメディアの特徴を特定しようとしています。」
しかし、機械学習だけではこの問題に対処できません。「偽情報との戦いで最も重要な要素は、ユーザーの意識を高めることです。なぜなら、私たちが偽情報に気づけば、プロパガンダの効果は薄れるからです。また、ユーザーが偽情報を共有する可能性が低くなるため、偽情報の拡散を抑制することにも役立つでしょう」とナコフ氏は言います。
続きを読む: 2019年、あらゆる困難にもかかわらず、英国のAI戦略は実を結ぶだろう
人工知能と市民社会の出会い
ビッグデータとディープラーニングは、決してニッチなテーマではなく、私たち全員に影響を与えています。「Facebookにとって困難な一年が、何らかの文化的変化や取り組みにつながるかどうか、興味深く見守っています。Facebookの問題は、テクノロジーに対する私たちの考え方が徐々に変化しつつある兆候の表れかもしれません。この傾向が今後も続くことを願っています」と、『Future Politics』の著者であり、ハーバード大学バークマン・インターネット・アンド・ソサエティ・センターの元フェローであるジェイミー・サスキンド氏は述べています。
「デジタルは政治的なものです」とサスキンド氏は言う。「私たちの生活を支配するテクノロジーが実際にどのように機能し、どのような価値観を象徴し、どのような目的を果たすのかを理解するために、私たちは支援を受ける必要があります。より根本的な意味で言えば、テクノロジー企業の道徳や知恵だけに頼るのではなく、テクノロジーを形作ったりカスタマイズしたりする役割を私たち自身が担うべきだということです。」
デジタル倫理学者の台頭
オックスフォード大学の人類の未来研究所やディープマインドの倫理と社会プロジェクトなどの取り組みでは、テクノロジーと人文科学の専門家を集めて、AIの社会的コストを予測し、軽減するとともに、社会に利益をもたらすプロジェクトに研究と投資を誘導しようとしています。
2018年、ナフィールド財団は慈善信託であるエイダ・ラブレス研究所を設立し、研究を促進し議論を促進することを使命として、新世代のデジタル倫理学者を育成しています。今後1年、そしてそれ以降も、ますます多くのAI企業が専門の倫理学者を上級職に採用すると予想されます。
「来年の今頃までに、Adaが複雑な問題に対して信頼できる情報に基づいた貢献を提供していると認識されるようになりたい」と、ナフィールド財団の最高経営責任者(CEO)であるティム・ガーダム氏は述べている。彼はさらに、データ駆動型社会が社会的に包摂的なものとなるよう、共同で取り組むべき課題を特定することが目標だと述べている。
ロボット工学の真の法則
2018年はFacebookにとって決して良い年ではなかったと言えば十分でしょう。ボイコットから政府による厳しい追及まで、多くの騒動はありましたが、具体的な行動はそれほど多くありませんでした。しかし、ゆっくりと状況は変わっていくでしょう。「2019年は多くのハードローが制定されるには時期尚早ですが、拘束力のない基準やガイドラインはすでに数多く発表されています」と、国際弁護士であり『Robot Rules: Regulating Artificial Intelligence』の著者であるジェイコブ・ターナー氏は述べています。「規制においては、こうしたソフトローが拘束力のあるローの前兆となることがよくあります。」
来年、立法者はより明確な法律を制定することに注力すべきだ。「裁判官に任せるよりも、AIに関する正式な法律を制定する方がはるかに良いでしょう」とターナー氏は言う。「裁判官には、より広範な国民の意見を聞く機会も、自らの判断が及ぼす影響について長期的な研究を行う機会もありません。」
これまでのところ、テクノロジーの未来に関する議論は、聞こえは良いものの意味のない「sine dicendos (意味不明)」で溢れている。ターナー氏によると、こうしたレベルのレトリックは、何の成果ももたらさない。2019年には、「政府も民間企業も、『AIは善のために使われるべきだ』といった漠然とした高尚な原則を簡潔にまとめようとするのをやめ、より詳細な規則や規制を策定するという、より困難な課題に着手すべきだ」とターナー氏は述べている。
会話型カスタマーサービスの普及
昨年、私たちは機械と会話を始めました。そして今、機械が、基本的な天気予報といった意味不明な情報を吐き出すことなく、機械に話しかけてくれる時がついに来ました。
Googleは最近、Duplexというサービスを開始しました。派手な技術デモを信じるなら、このサービスはユーザーに代わってレストランに電話をかけ、予約を取らせてくれます。この技術は、よりスマートな自然言語生成機能を備え、まもなく銀行アプリ、カレンダー、メールにも搭載される予定です。Kore.aiのシニアバイスプレジデント、ロビン・キアロン氏によると、ユーザーと会話を始めるシステムが「ニューノーマル」になりつつあるとのことです。
以前から約束されていましたが、今や技術はほぼ完成しています。使い勝手(および規制)の問題を整理する必要があるかもしれませんが、自然言語理解と生成の技術はついに準備万端です。
解決すべき最大の課題は、機械の社会的能力を高めることです。「人間は深く社会的な動物であるため、AIやロボットも社会的なものとして扱う傾向があります」とブラウン大学のバートラム・マール教授は述べています。そして、それが失望につながることもあります。「人間の実際の会話は現在のシステムには複雑すぎます。そして、いつ(何かを言うのが)適切かを判断する社会的な知能は存在しないのです。」
Googleに検索クエリを入力する方法と、同じ質問を人間に尋ねる方法の違いを考えてみてください。Googleに「近くのバー」と入力するかもしれません。これを人間に言えば、あなたは馬鹿にされるでしょう。機械とのコミュニケーションを、入力された言葉から話し言葉へと移行させる上で、残された最大の課題の一つは、新しい話し方を学ぶことです。
シリコンバレーの警官
詐欺やマネーロンダリングのスマートな検出は目新しいものではありませんが、自動化から拡張インテリジェンスへと傾向はますます強まっています。
取引詐欺を例に挙げてみましょう。この技術は、特定の注文が詐欺である可能性を予測するために何千もの実験を同時に実行するという点で優れていますが、真の成果は、経験豊富な(人間の)アナリストと機械が協力して得られるものです。
不審な行動を見抜くには、詐欺検知システムとアナリストが新たな領域に目を向ける必要がある。「金融犯罪者が単独で行動することは滅多にありません」と、BAEシステムズ・アプライド・インテリジェンスのデイビッド・ニコルソン氏は言う。「彼らのシグナルは、個人、口座、メールアドレス、住所などを結ぶ異常なネットワークです。」2019年には、犯罪対策AIは単発の犯罪ではなく、時間の経過とともに進化する人間のネットワークに基づいて犯罪者を特定する方向にシフトしていくだろう。
機械による説明の夜明け
予測はできてもそれを説明できないシステムは、様々な意味で危険です。人種や性別といった差別的な特徴に基づいた意思決定は社会に悪影響を及ぼす可能性があり、一方で、簡単に偽造できるデータに左右される意思決定は極めて脆弱です。マイクロソフトリサーチのマルコ・トゥリオ・リベイロ氏は最近、Lime(局所的に解釈可能なモデルに依存しない説明)を発表しました。これは簡単に言えば、アルゴリズムによる意思決定の理解を助けるソフトウェアシステムです。「説明は、開発者やユーザーがモデルをデプロイする前に信頼すべきかどうかを判断するのに役立ち、改善すべき点を指摘するのにも役立ちます」と彼は述べています。
「説明はモデルの脆弱性に関する洞察を提供します」と、カーネギーメロン大学で説明可能なAIを研究しているレマン・アコグル教授は付け加えます。「例えば、テロリストの容疑者を特定しようとしている場合、基礎となるモデルが個人の年齢に依存していることが説明から明らかになれば、年齢を偽ることは容易であるため、そのモデルは脆弱である可能性があります。」
アコグル氏とリベイロ氏は、説明可能なAIはそれ自体が人間と機械の協働を支援する新しいツールだと考えています。「未来を予測するのはいつもためらわれますが、人間とAIの協働という分野がどのように発展していくのか、非常に興味があります」とリベイロ氏は言います。「人間とAIのチームが、どちらか一方だけよりも効果的に機能する可能性のある分野は数多くあります。」
気候変動
「物理学に基づく気候シミュレーションモデルは、地球の気象に関するすべての衛星観測データよりも多くのデータを生み出してきました」と、コロラド大学ボルダー校コンピュータサイエンス学部のクレア・モンテレオーニ教授は述べています。モンテレオーニ教授は、スマートシミュレーションを用いて異常気象の予測と緩和に取り組んでいます。「これらのデータ駆動型技術は、既に収集されている膨大な量のシミュレーションデータと観測データから洞察を引き出す、最も費用対効果の高い方法なのです。」
モンテレオーニ氏は、若者が気候データサイエンスの分野に参入することを奨励するためにハッカソンを開催しています。「特に学生やキャリア初期のデータサイエンティストやAI研究者の世代が気候情報科学に興味を持つのを見て、とても嬉しく思います。(2018年は)会議室が満員になり、残念ながら順番待ちリストに載っていた全員を受け入れることができませんでした」と彼女は言います。
2019年の抱負は?「AIと機械学習の分野の研究者および教育者として、私たちは学生たちに、気候問題だけでなく、持続可能性、農業、健康、教育、公平性、多様性、包摂性といった社会貢献分野における主要な課題に対処する多様な応用分野に触れてもらうよう努めるべきです。」
地形を学ぶ
人口が都市化し、食料と水の安全保障が依然として大きな懸念事項となっている中、機械学習は私たちが持つ土地を最大限に活用するのに役立つでしょう。農業を例に挙げましょう。
「イングランドの農業国勢調査は現在、10年に一度しか実施されておらず、得られたデータは2キロメートル四方にまとめられています」と、土地調査の強化にAIを活用している土地・環境・経済・政策研究所所長のイアン・ベイトマン教授は述べています。「衛星データは、毎週、1週間足らずで、非常に詳細な国土の完全な地図を提供します。機械学習技術は、この膨大なデータを明確に解釈可能な情報に変換し、研究者が発見するには途方もなく長い時間がかかるようなメッセージを発見することができます」とベイトマン教授は付け加えます。
「私たちの希望は、2019年末までに機械学習技術を活用し、地球観測データを活用して土地利用をどのように変えれば農家、社会、そして環境にとって良い決定を政策立案者が下せるようになるか理解することです。」
より健康的なAI
機械学習を医療に応用することで、病気の早期診断、有望な新しい治療法の開拓、患者が処方された薬をきちんと服用できるようにするといったことが可能になります。
2013年以来、現代医療が要求する膨大なデータ処理作業に直面すると、医療従事者が燃え尽き症候群に陥るリスクがあることが分かっています。多忙な救急外来における約500時間の臨床時間を対象とした研究では、患者の診察に費やされた時間はわずか28%だったのに対し、データ入力に費やされた時間は43%でした。1回の10時間勤務で、医師は4,000回のマウスクリックを行うと予想されます。
この問題は非常に深刻で、スタンフォード大学の研究者が今年、変化を求める論文を発表しました。2019年以降、医師はもはや煩雑で特殊な方法で機械にデータを入力する必要はありません。代わりに、機械はより柔軟でフォーマットされていないデータを解釈する知性を持つようになるため、その面倒な作業は機械に移行されます。フォームへの記入やチェックボックスのチェックではなく、会話によるデータ入力が現実のものとなり、バーチャルアシスタントが医師と患者の会話から重要な情報を自動的に抽出できるようになるでしょう。
2019年3月1日更新:ティム・ガーダムはナフィールド財団の最高経営責任者である。
この記事はWIRED UKで最初に公開されました。