コンピューターがすぐにあなたの心を読むことができない理由

コンピューターがすぐにあなたの心を読むことができない理由

画像には動物の鳥とキウイの鳥が含まれている可能性があります

ゲッティイメージズ/WIRED

エドワード・チャンは思考を読むことはできない。カリフォルニア大学の神経科学者であるチャンの研究室が新たな研究成果を発表するたびに、いつも同じ文句が繰り返される。「心を読む技術」を開発したとか、「思考を読むことができる」といったものだ。これは彼だけのことではなく、脳コンピューターインターフェースや音声解読に関する研究の多くに共通するフレーズだ。

イーロン・マスク氏のスタートアップ企業ニューラリンクが、最終的には「合意に基づくテレパシー」を実現すると主張し、チャン氏の研究室の資金提供者の1つであるフェイスブックが、脳コンピューターインターフェース(BCI)の一例である、電話で言葉を入力するのではなく、言葉を思い浮かべるだけでメッセージを送れるようにしたいと述べたのも不思議ではない。

しかし、チャン氏が試みているのは心を読もうとしているのではなく、話すことのできない人の発話を解読しようとしているのだ。「私たちが本当に話しているのは、誰かの思考を読むことではありません」とチャン氏は言う。「私たちがこれまで行ってきた論文やプロジェクトはすべて、脳がどのようにして発話能力や言語理解能力を制御しているかという基礎科学を理解することに焦点を当ててきました。私たちが何を考えているのか、つまり内面的な思考についてではありません」。このような研究は倫理的に重大な影響を及ぼすだろうが、いずれにせよ現時点では不可能であり、おそらく今後も不可能になることはないだろう。

音声の解読さえ容易ではない。昨年ネイチャー誌に掲載された彼の最新論文は、発話によって生成される脳信号を、機械が読み上げる単語や文章に変換することを目指したもので、筋萎縮性側索硬化症(ALS)などの疾患を持つ人々を支援することを目指している。ALSは脳と脊髄の神経細胞に影響を及ぼす進行性神経変性疾患である。「この論文では、普通に話している人の脳活動を計測し、それを用いて音声合成を行う能力について述べている。人の思考を読み取るわけではない」と彼は言う。「話している信号を読み取るだけなのだ。」

この技術は、ある程度までは効果を発揮した。脳に電極を埋め込んだ患者に質問を読み上げさせ、答えを発声させた。チャン氏のシステムは、脳の運動野を観察することで、口や舌を動かすために脳がどのように発火したかを観察することで、聞き取った内容を76%、発話内容を61%の確率で正確に判別できた。しかし、注意点もある。考えられる回答は選択肢に限られていたため、アルゴリズムの作業はやや楽になっていた。さらに、患者たちはてんかんの脳スキャンを受けるために入院しており、普段通りに話すことができた。しかし、全く話せない人にこの技術がどう当てはまるかは不明だ。

「私たちの目標は、この技術を麻痺のある人々にも応用することです」と彼は言う。「大きな課題は、話していない人の理解です。そのためにアルゴリズムをどのように訓練すればいいのでしょうか?」文章を読み上げてもらう人を使ってモデルを訓練するのは一つの方法です。文章を読み上げている間の脳信号をスキャンするのです。しかし、話せない人の場合はどうすればいいのでしょうか?

チャン氏の研究室は現在、この「困難な課題」に取り組む臨床試験の最中ですが、発話できない人の音声信号がどのように変化するのか、あるいは脳の別の領域を考慮する必要があるのか​​は、まだ明らかになっていません。「科学的知識の観点から、私たちが取り組まなければならない、かなり重要な問題があります」と彼は言います。

このような信号の解読が難しいのは、私たち自身の脳の働きがほとんど理解されていないことが一因です。カーソルを左右に動かすようにシステムを訓練するのは比較的容易ですが、音声は複雑です。ハーバード大学医学部のデイビッド・ヴァレリアーニ氏は、「主な課題は、このタスクを特徴付ける膨大な語彙、非常に高い信号品質の必要性(これは非常に侵襲的な技術によってのみ実現可能)、そして音声が脳内でどのように符号化されるかについての理解不足です」と述べています。「この後者の側面は、多くのBCI分野に共通する課題です。脳をBCIなどの他の技術の制御に活用できるようになるには、まず脳の働きを理解する必要があります。」

データが十分にない、とユトレヒト大学メディカルセンター(UMC)の助教授、マリスカ・ファン・スティーンセル氏は言う。脳インプラントの設置は難しいため、頻繁に行われているわけではない。チャン氏が研究対象に選んだのは、既に発作を追跡するためのインプラントを埋め込んでいたてんかん患者たちだった。発作が起こるのをただ待っているだけで、退屈しのぎに彼の研究に参加してくれる人が数人いた。「この種のテーマでは、非常に困難な研究であり、非常に時間がかかるため、インプラントを埋め込む患者の数は少ないままでしょう」と彼女は述べ、世界中でBCIを埋め込んだ人は30人未満だと指摘した。彼女自身の研究は2つのインプラントに基づいている。「それが進歩が比較的遅い理由の一つです」と彼女は付け加え、情報共有を促進するために研究データベースを統合することを示唆した。

これが難しい理由はもう一つあります。それは、私たちの脳が皆同じように反応するわけではないということです。ヴァン・スティーンセル医師は、手を動かすことを意識するだけで脳信号でマウスクリックを行えるインプラントを装着した患者を二人診ています。最初のALS患者には完璧に機能しました。しかし、2人目の脳幹梗塞患者には機能しませんでした。「彼女の信号はそれぞれ異なり、この技術を信頼できるものにするには最適ではありませんでした」と彼女は言います。「あらゆる状況でマウスクリックを1回でも確実に行うことは…すでに困難です。」

この研究は、NextMindやCTRL-Labsといったスタートアップ企業の研究とは異なります。これらの企業は、外部の非侵襲性ヘッドセットを用いて脳信号を読み取るものの、インプラントほどの精度は備えていません。「コンサートホールの外にいると、ホール内で演奏されている音のかなり歪んだバージョンが聞こえてしまいます。これが非侵襲性BCIの問題点の一つです」と、エセックス大学の人工知能産業フェロー、アナ・マトラン=フェルナンデス氏は述べています。「演奏されている曲の大まかなテンポは把握できますが、演奏されている楽器を一つ一つ正確に特定することはできません。これはBCIでも同じです。せいぜい、脳のどの領域が最も活発に活動しているか、つまり、より大きく演奏されているかは分かりますが、その理由は分かりません。また、それが特定の人にとって何を意味するのかは、必ずしも分かりません。」

それでも、NeuralinkやFacebookを含むテクノロジー業界の取り組みは的外れではないとチャン氏は言う。ただし、それぞれの取り組みは異なる問題に取り組んでいる。これらのプロジェクトは、いわゆる「心を読む」ことを可能にするために必要なハードサイエンスではなく、インプラントやヘッドセットの技術に焦点を当てている。「これらすべての取り組みが実現することが重要だと思います」と彼は言う。「ただし、これらの取り組みが機能するために必要なのはそれだけではありません。これらの取り組みが機能する前に、脳に関する基礎的な知識がまだ必要です」

それまでは、発話内容を読み取ることはおろか、ましてや思考そのものを読み取ることなどできないだろう。「たとえ脳信号から人が発しようとしている言葉を完全に区別できたとしても、それは心を読むことや思考を読むことには程遠い」とヴァン・スティーンセル氏は言う。「私たちは発話生成の運動面に関わる領域だけを見ている。思考を見ているわけではない。そもそも、そんなことは不可能だと思う。」

エドワード・チャンは、2020年3月25日にロンドンで開催されるWIRED Healthに講演者として登壇します。詳細とチケットのご予約はこちらをクリックしてください。

この記事はWIRED UKで最初に公開されました。