この物語 のオリジナル版はQuanta Magazineに掲載されました。
自動運転車や自動飛行機はもはや未来の産物ではありません。サンフランシスコ市だけでも、2つのタクシー会社が2023年8月までに合計800万マイル(約1300万キロメートル)の自動運転走行を記録しました。また、米国では85万機以上の自動操縦航空機(ドローン)が登録されています(軍所有のものは含まれていません)。
しかし、安全性については正当な懸念があります。例えば、米運輸省道路交通安全局(NHTSA)は、2022年5月までの10ヶ月間に、何らかの自動制御を搭載した自動車が関与する事故が400件近く発生したと報告しています。これらの事故により6人が死亡し、5人が重傷を負いました。
この問題に対処するための一般的な方法(「徹底的なテスト」と呼ばれることもある)は、これらのシステムが安全であると確信できるまでテストを続けることです。しかし、このプロセスですべての潜在的な欠陥が発見されるとは限りません。「人々はリソースと忍耐力を使い果たすまでテストを続けます」と、イリノイ大学アーバナ・シャンペーン校のコンピューター科学者、サヤン・ミトラ氏は述べています。しかし、テストだけでは安全を保証することはできません。
ミトラ氏と彼の同僚たちはそれを実現できる。彼のチームは、自動車の車線追従機能と自律飛行機の着陸システムの安全性を実証することに成功した。彼らの戦略は現在、空母へのドローン着陸を支援するために活用されており、ボーイング社は今年中に実験機で試験する予定だ。「エンドツーエンドの安全性保証を提供する彼らの手法は非常に重要です」と、カーネギーメロン大学とNASAエイムズ研究センターの研究科学者であるコリナ・パサレアヌ氏は述べた。
彼らの仕事は、自動運転車に情報を提供する機械学習アルゴリズムの結果を保証することです。多くの自動運転車は、大まかに言うと、知覚システムと制御システムという2つのコンポーネントで構成されています。知覚システムは、例えば、自車が車線中央からどれだけ離れているか、飛行機がどの方向に進んでいるか、地平線に対してどのような角度にあるかなどを運転者に伝えます。このシステムは、カメラやその他のセンサーツールから得られた生データをニューラルネットワークに基づく機械学習アルゴリズムに送り込み、車外の環境を再現することで動作します。
これらの評価は、別のシステムである制御モジュールに送信され、そこで適切な対応が決定されます。例えば、前方に障害物がある場合、ブレーキをかけるか、それとも回避するかを決定します。マサチューセッツ工科大学のルカ・カルローネ准教授によると、制御モジュールは確立された技術に依存しているものの、「認識結果に基づいて判断を下しており、その結果が正しいという保証はありません」とのことです。
安全性を保証するため、ミトラ氏のチームは車両の認識システムの信頼性確保に取り組みました。まず、外界の完全なレンダリングが利用可能であれば安全性を保証できると仮定しました。次に、認識システムが車両の周囲の環境を再現する際にどの程度の誤差が生じるかを調べました。
この戦略の鍵となるのは、エラーバンドと呼ばれる不確実性を定量化すること、あるいはミトラ氏の言葉を借りれば「既知の未知数」を数値化することです。この計算は、彼と彼のチームが「知覚契約」と呼ぶものから生まれます。ソフトウェアエンジニアリングにおいて、契約とは、コンピュータープログラムへの特定の入力に対して、出力が指定された範囲内に収まるという約束です。この範囲を把握するのは容易ではありません。車のセンサーの精度はどれほどでしょうか?ドローンはどの程度の霧、雨、太陽の眩しさに耐えられるでしょうか?しかし、車両を指定された不確実性の範囲内に維持でき、その範囲の決定が十分に正確であれば、ミトラ氏のチームは車両の安全性を確保できることを証明しました。

イリノイ大学アーバナ・シャンペーン校のコンピューター科学者、サヤン・ミトラ氏は、特定の自律システムの安全性を保証するための体系的なアプローチの開発に貢献した。写真:ヴァージル・ワードII
不正確なスピードメーターを使う人にとっては、よくある状況です。もしメーターの誤差が時速5マイル(約8キロ)以上になることが分かっているなら、(信頼できないスピードメーターが示す)制限速度より常に時速5マイル(約8キロ)低い速度を維持することで、スピード違反を回避できます。知覚契約は、機械学習に依存する不完全なシステムの安全性を同様に保証します。
「完璧な知覚は必要ありません」とカルローネ氏は述べた。「安全性を危険にさらさない程度に十分な知覚があれば十分です」。チームの最大の貢献は、「知覚契約という概念そのものを導入し」、それを構築するための手法を提供したことだと彼は述べた。彼らはこれを、コンピュータサイエンスの分野である形式検証の手法を用いて実現した。形式検証は、システムの挙動が一連の要件を満たしていることを数学的に確認する手法である。
「ニューラルネットワークがどのように動作するのか正確には分かっていませんが」とミトラ氏は述べた。しかし、ニューラルネットワークの出力の不確実性が一定の範囲内にあることを数値的に証明することは可能であることが示された。そして、もしそれが事実であれば、システムは安全である。「そうすれば、特定のニューラルネットワークが実際にそれらの限界を満たすかどうか(そしてどの程度満たすか)について、統計的な保証を与えることができるのです。」
航空宇宙企業のシエラネバダは現在、空母へのドローン着陸時にこれらの安全保証をテストしています。この問題は、飛行には追加の次元が伴うため、ある意味では自動車の運転よりも複雑です。「着陸には主に2つのタスクがあります」と、ボーイングのAIチーフテクノロジストであるドラゴス・マルギネアントゥ氏は述べています。「飛行機を滑走路に合わせることと、滑走路に障害物がないことを確認することです。Sayanとの協力は、この2つの機能の保証を得ることに関わっています。」
「サヤンのアルゴリズムを用いたシミュレーションでは、(着陸前の航空機の)アライメントが実際に改善されることが示されています」と彼は述べた。今年後半に予定されている次のステップは、これらのシステムを実際にボーイングの実験機の着陸時に使用することだ。マージンアントゥ氏によると、最大の課題の一つは、何が分かっていないのか、つまり「推定値の不確実性を判断すること」、そしてそれが安全性にどのような影響を与えるかを把握することだという。「ほとんどのエラーは、分かっているつもりで行動したのに、実際には分かっていなかったという時に起こります。」
オリジナルストーリーは、数学、物理科学、生命科学の研究の進展や動向を取り上げることで科学に対する一般の理解を深めることを使命とする、 シモンズ財団の編集上独立した出版物であるQuanta Magazineから許可を得て転載されました。