
CSAイメージズ/iStock
2015年8月、ベイエリアの厳選されたFacebookユーザー数名が、Facebook Messengerの新機能を発見しました。Mと呼ばれるこのサービスは、Google NowやAppleのSiriに対抗すべく設計されました。自然な言葉で質問に答え、レストランの予約やUberの予約を手伝ってくれるパーソナルアシスタント、Mは自然言語理解の進化を目指したものであり、Siriとは異なり、決して不快な体験ではないバーチャルアシスタントでした。
それから数年が経ち、汎用パーソナルアシスタントはFacebookの製品ラインナップの中で格下げされてしまいました。かわいそうなM。ユーザーにジョークを飛ばしたり、ガイド、ライフコーチ、そして最適化ツールとして機能してくれることを期待していたのに。
Mに対する失望は、主に、このサービスが新たなアプローチを試みたことに起因している。AIだけに頼るのではなく、人間によるレイヤーを導入したのだ。つまり、AIは人間によって監督されるのだ。機械が回答や対応ができない質問やタスクを受け取った場合、人間が代わりに対応する。こうして、人間はアルゴリズムをさらに訓練することになる。
もちろん、バーチャルアシスタントの現状はまさにこれです。ディープラーニングという、まさに変革をもたらす技術の瀬戸際にあり、私たちは過大な期待に胸を膨らませています(今年のCESでエレクトロニクス業界が精一杯の努力をしたにもかかわらず、人間のニーズを一つも満たしていないように見えるコネクテッドホームのすぐ隣にあります。クロイ、君のことだよ)。ピーター・ティールの言葉を少し引用すると、私たちは汎用人工知能を約束されていたのに、冷蔵庫の中身を見てサンドイッチを作るように指示してくれるホームアシスタントを手に入れてしまったのです。なんて時代なのでしょう。
詳しくはこちら:DeepMindのムスタファ・スレイマン氏:2018年にはAIが道徳的な羅針盤を獲得する
AIは酸素のようにあらゆる場所に、あらゆる物に遍在するという、壮大な物語が描かれています。AIは、X線をより正確に読影し、科学をより効果的に探求し、外国語を勉強することなく理解できるようにし、自動運転車が私たちの望む通りに動作することを保証します。農業、医療、科学の分野では飛躍的な進歩が見られるでしょう。政府は不平等や犯罪と闘う方法を発見するでしょう。
しかし、まだそこには至っていません。そしておそらく永遠に至らないだろう、とUberの元AI責任者で現在はニューヨーク大学教授のゲイリー・マーカス氏は言います。昨年12月に開催されたニューラル情報処理システム会議でDeepMindのデミス・ハサビス氏と活発な意見交換を行ったマーカス氏は、機械学習研究の進展に関するテクノロジーコミュニティ内の熱狂を鎮めることで知られています。今月初めに発表された論文「Deep Learning: A Critical Appraisal」の中で、彼は人工知能研究で最も広く知られている手法が汎用AIにつながるためには、対処しなければならない「懸念」を概説しています。マーカス氏は、この分野が「不合理な熱狂」に陥っている可能性があると述べ、この分野を前進させるために何ができると考えているかを概説しています。
マーカス氏は、データセットが十分に大きくラベル付けされており、計算能力が無制限である場合、ディープラーニングは強力なツールとして機能すると主張している。しかし、「ディープラーニングに依存するシステムは、単語の新しい発音や、システムが以前に見たものとは異なる画像など、これまでに見た特定のデータを超えて一般化する必要があることが多く、データが無限ではない場合、形式的な証明で高品質のパフォーマンスを保証する能力はより限られる」。
論文では、マーカス氏がディープラーニングの限界として挙げる10の領域を概説している。例えば、膨大なラベル付きデータセットが必要であることが挙げられる。画像認識などのアプリケーションでは、データ量が限られているため、ディープラーニングは新しい視点を一般化することが困難になる可能性がある(例えば、駐車標識の丸いステッカーをボールとして認識してしまう可能性がある)。マーカス氏は、「ディープラーニング」の「ディープ」とは、概念的な深さではなく、システムのアーキテクチャ的な性質、つまり今日のニューラルネットワークの層数を指していると指摘する。「このようなネットワークによって獲得される表現は、例えば『正義』『民主主義』『干渉』といった抽象的な概念には自然には当てはまらない」と彼は記し、ディープラーニングによって抽出されるパターンの中には表面的なものもあると主張している。
続きを読む: フェイクニュース2.0: AIはまもなく人間の声を真似できるようになる
ディープラーニングに基づく言語モデルには疑問が投げかけられている。マーカス氏の見解では、この技術は階層的ではなく、フラットな単語間の相関関係を学習する。「その結果、ディープラーニングシステムは、単語の順序関係といった、最終的には不十分な様々な代理変数を使わざるを得なくなるのです。」同様に、マーカス氏は、現実世界の知識に基づくオープンエンドな推論に関してはこの技術には限界があり、「ジョンはメアリーに別れを約束した」と「ジョンはメアリーに別れを約束した」の違いを機械が理解できないと主張している。
透明性もまた懸念材料です。ニューラルネットワーク内の数百万、数十億ものパラメータは、「人間が解釈できるラベル」ではなく、その地理的位置によって識別可能です。マーカス氏は、金融や医療などの分野では、研究者は特定の決定がなぜ行われたのかを解明できず、こうした不透明性の欠如によって、内在するバイアスが隠されてしまう可能性があると主張しています。
事前知識を加味せずに行われた研究にもバイアスは明らかです。ほとんどのディープラーニングは自己完結的で、抽象化ではなく相関関係に関係しています。「分類よりも常識的な推論に関係する問題は、本質的にディープラーニングの適切な範囲外にあり、私の知る限り、ディープラーニングはそのような問題にほとんど貢献していません。」
その他の懸念としては、ディープラーニングは囲碁やチェスなどの固定され安定したデータセットではうまく機能しますが、経済学などの動的で変化する環境ではうまく機能しない、画像認識などのアプリケーションは簡単に「偽装」される(つまり「見ている」ものを誤って解釈する)こと、そしてディープラーニングには透明性やデバッグ性、プログラミング言語がないため、エンジニアリングが本質的に難しい、などが挙げられます。
マーカス氏の論文から明らかなのは、機械学習という分野の可能性に大きな期待が寄せられている一方で、非常に難しいということです。大きな進歩は見られるものの、パターン分類を超えた応用には、研究者たちはまだ程遠い道のりを歩んでいます。
マーカス氏は、ディープマインドのような企業の研究には当然ながら興奮が高まっているものの、短期間で革命的なブレークスルーが起こる可能性は低いと主張する。むしろ、他の多くの科学と同様に、この科学も時間をかけて徐々に発展していくだろう。AIの冬は脱したものの、幻滅の谷底へと向かっているのかもしれない。マーカス氏は、機械学習のゴッドファーザーと多くの人に称えられているジェフリー・ヒントンの言葉を引用して、自身の主張を裏付けている。「科学は葬式を一つずつこなしていく。未来は、私が言ったことすべてに深い疑念を抱く大学院生にかかっている」。マーカス氏にも同じことが言えるはずだ。
この記事はWIRED UKで最初に公開されました。