現代ロボット工学における最大の憤りは、ロボット家政婦が未だに存在しないことかもしれない。『宇宙家族ジェットソン』のロージーのように、掃除やモップがけをし、お皿に薬を乗せて運んでくれるロボットを求めるのは、本当にそんなに無理なことなのだろうか?
実のところ、これはかなり無理な要求です。掃除機をかけること以外、例えば食卓の準備といった簡単な家事さえもこなせるロボットを作るのは、器用さと計画性の両方が求められるため、非常に難しい課題です。しかし、MITコンピュータ科学・人工知能研究所の科学者たちは、ロボットがコーヒーを入れたり食卓を準備したりする世界を目指して研究を進めています。しかも、その研究はシミュレーションの中で行われています。なぜなら、ロボットに家の掃除をさせるのではなく、家全体を管理させたいのであれば、ロボットを適切に訓練する必要があるからです。
あなたは一日のかなりの時間を自動操縦で過ごしています。例えば、一杯のコーヒーを淹れる時に、あまり深く考えようとしないのではないでしょうか。
キャビネットを開ける > コーヒーを取る > キャビネットを閉じる > コーヒーを置く > 別のキャビネットを開ける > マグカップを取る > キャビネットを閉じる > コーヒーメーカーをオンにする…
要点はお分かりでしょう。あなたにとっては簡単なことでも、実は理論上のロボットにとっては極めて複雑な命令セットなのです。そこで研究者たちは、シミュレーションでヒューマノイドロボットのソフトウェア版を作成しました。これにより、各タスクを「アトミックアクション」、つまりあなたが実行しなければならない小さなステップに分解できるようになりました。「テレビを見たいならテレビをつけたり、コーヒーを作るために牛乳を取りに冷蔵庫を開けたりといったことができるようになります」と、このシステムを説明した新しい論文の筆頭著者であるMIT CSAILのコンピューター科学者、ザビエル・プイグ氏は述べています。
これらの原子レベルの動作が互いに連携して、本質的に分子のような複雑なタスクを生み出します。小さな動作を記述することで、シミュレーション内のヒューマノイド「ロボット」は共通の分類体系を活用できるようになります。ロボットはこれを用いて、研究者たちがコンピュータープログラムとしてモデル化した作業を実行します。つまり、上の動画でご覧いただけるように、ロボットが人工環境内で作業し、テレビに近づいて電源を入れ、そして少しぎこちなく座るという動画が出力されます。
家事用のシステムを構築した後、プイグ氏と彼の同僚たちは、それを逆順に実行することができます。「合成環境内でビデオを取り込み、そのビデオを生成したプログラムを再構築するように学習するモデルも示しています」とプイグ氏は言います。つまり、このシステムはロボットが特定のタスクを実行していることを認識し、それを再現できるのです。
もちろん、次のステップは、テーブルセッティングなどの家事を行う人間のビデオをシステムに視聴させ、それを構成要素(テーブル自体ではなく、作業)に分解させることです。将来、家庭用ロボットがついに登場した暁には、理論的には、映画『マトリックス』のネオがカンフーのレッスンをダウンロードしたように、この種の知識をロボットの脳にアップロードできるようになるでしょう。

MIT CSAIL

MIT CSAIL
あるいは、部屋にいるロボットが人間の飼い主の作業を観察し、その手本から学習することも可能だ。これは、家庭用ロボットと協力して家事を行う際に、ロボットが飼い主の特定の作業手順に適応しなければならない場合に特に役立つだろう。コーヒーにクリームを入れるタイミングは?そもそもクリームは好きか?ロボットはそれを理解できるだろう。「ロボットは将来の行動を予測し、人間の環境を変えることができるようになるでしょう」とプイグ氏は言う。「例えば、飼い主が挽いたコーヒーを取ろうとしているのをロボットが見れば、冷蔵庫に行ってミルクを持ってくるといったことも可能です。」
しかし、それはまだ何年も先の話です。このシミュレーションにおける仮想エージェントは、椅子やソファ、マグカップなどが適切に配置されている静的な環境で動作していますが、現実の家庭はそうではありません。子供たちは走り回り、おもちゃの車はどこからともなく現れ、椅子は動きます。そのため、ロボットは家庭の混沌とした世界に足を踏み入れる前に、より予測不可能な仮想世界で訓練を続ける必要があるでしょう。
そして、それは大きな飛躍となるだろう。「現実世界でのロボットにとって、アクションプログラムを安全でインテリジェントな行動へと変換するにはどうすればよいかという問題は依然として残っています」と、機械学習を用いてロボットに物体の操作方法を教えるKindredの共同創業者兼AI研究責任者、ジェームズ・バーグストラ氏は語る。「しかし、この研究は、人々がロボットに何をしてほしいかという観点から、ロボットに何を言っているかを理解する上で進歩を示しています。」
たとえ環境が比較的予測可能であっても、ロボットは物体の操作に苦労します。私たちはドアノブやテレビのリモコンなど、人間の手に合わせて作られた世界に生きていますが、どんなロボットハンド(正式にはエンドエフェクタ)も人間の器用さを再現することはできません。誤差の許容範囲が事実上ゼロであるため、機械は物体の操作能力をはるかに向上させる必要があります。ロボットはコーヒーカップを90%、いや95%、96%の精度で掴むことはできません。100 %の精度で掴まなければなりません。誤差率がわずか1%であれば、100個のマグカップのうち1個を落とすことになります。これは小さいながらも、首を絞めてしまうことのないロボットを求めるなら、許容できない数字です。
ロボット「ロージー」の実現は、まだまだ遠い未来の話だ。そもそも、二足歩行にどれだけの労力がかかるかを考えると、家庭用ロボットが人間のように見える可能性は低いだろう。しかし、ロボットがついにコーヒーを淹れ、テーブルセッティングをしてくれるようになる時、お気に入りのマグカップを丁寧に扱う姿は、シミュレーションの中で生まれたものになるだろう。
WIREDのその他の素晴らしい記事
- サム・ハリスと完全に合理的思考の神話
- 微妙なフォント調整で目に見えないメッセージを送信する方法
- 次回のセクハラ研修はVRで実施すべき理由
- シリコン大強盗の内幕
- テスラ モデルXによるボーイング787の牽引の物理的特性
- もっと知りたいですか?毎日のニュースレターに登録して、最新の素晴らしい記事を見逃さないでください。