モバイル・ワールド・コングレス(MWC)には、いつもながら奇妙な出来事が山ほどあります。先週のMWCでは、韓国のHyodol社が、高齢者向けのChatGPT対応コンパニオンドールを誇らしげに披露し、奇抜な製品賞を獲得しました。この1,800ドルのAI搭載ドールは、まるで幽霊屋敷の屋根裏部屋で見つかるような怪しい見た目ですが、実は孤独な人や長期介護施設に入所している人たちのための、インタラクティブなデジタルフレンドとして活躍することを目的としています。
人形の中に詰め込まれた大型言語モデルのおかげで、ヒョドルは所有者と会話できるだけでなく、薬の服用時間や食事のタイミングなど、健康に関するリマインダーも提供できるそうです。想像以上にコネクティビティに優れており、付属アプリとウェブモニタリングプラットフォームを使えば、介護者がデバイスとユーザーを遠隔から監視できます。

Hyodol のセンサー搭載 ChatGPT 対応人形は、所有者と対話することができます。
写真:ヒョドル「高齢者が手を握ったり、背中を軽く叩いたり、頭を撫でたりすると、孫ロボットが反応し、適切なタイミングで愛情のこもった役立つ言葉を高齢者にかけます」と、ヒョドルのグローバルマーケティングチームリーダー、イ・イェスル氏は、この記事の初版公開後、WIREDへのメールで述べた。「日々の生活を丁寧にケアしてくれるのです」
これは、介護施設の高齢者から大学生まで、あらゆる人々を悩ませている孤独という蔓延を鎮めるためのものです。米国国立老化研究所のプログラムディレクター、エリザベス・ネッカ氏は、この種の技術は、特に既に深刻な人員不足に悩まされている介護施設で活用される場合、大きな効果を発揮すると述べています。
「孤独感を和らげる低コストの解決策があるかもしれないという考えは非常に魅力的です」とネッカ氏は言う。「ChatGPTが実際にそうしたつながりの感覚を実現できるかどうかは別として、そう断言するのは時期尚早に思えます。」
これらのデバイスには確かに産業があります。愛らしいソーシャルロボットの市場は、特に日本などの国で活発です。LOVOTやQoobo(「心を温める尻尾付きクッション」)といった企業は、愛らしくて抱き心地の良いコンパニオンボットを流行らせました。これらのデバイスは欧米諸国でも利用されていますが、文化的にはそれほど受け入れられていません。しかし、企業があらゆるものに生成型AIを搭載する傾向にある今、会話型のチャッキーロボットの波があらゆる場所で押し寄せる時期が来ていると言えるでしょう。
「業界はまだ市場を理解しようとしている段階だと思います」と、ブリティッシュコロンビア大学看護学部のシニアケア研究主任で准教授のリリアン・ハン氏は言う。「まだ初期段階ですが、確実に軌道に乗っています。」

ソーシャルロボットのルームメイトであるJiboは当初は騒ぎを起こしたが、残念ながら長くは生きられなかった。
写真:ジボ他にも様々な試みがあった。AIと愛嬌のあるジェスチャーで飼い主と絆を深めるソーシャルロボット「Jibo」は、発売からわずか数年で突然電源プラグを抜かれた。一方、米国で開発されたAI搭載ロボット「Moxie」は、子どもの発達を支援することを目的に開発が進められている。
このようなデバイスを見ると、その可能性に身震いせずにはいられない。人間のふりをするテクノロジーには、本質的にどこか不穏な何かがあり、その不気味な欺瞞は人々の反感を買うことがある。結局のところ、現代のSFにはAIが登場する生き物が溢れているが、その多くは人工知能がひどく間違った方向に進んでいく物語だ。ヒョードルのようなものと簡単に、そして確かに軽率に比較できるのが、2023年公開の映画『M3GAN』だ。これはAI搭載のコンパニオンドールが完全な殺人ロボットになる物語だ。
しかし、不快な人形以外にも、ソーシャルロボットには様々な形があります。アシスタント、ペット、小売店の従業員、そして往々にして社交性に欠け、人前でぎこちなくうろつく変人などです。しかし、武器やスパイ、警官として登場することもあります。ふわふわした見た目であろうとなかろうと、人々がこうした自動人形に疑念を抱くのも無理はありません。
ウェンディ・モイル氏は、オーストラリアのグリフィス大学看護助産学部の教授で、認知症患者のケアに携わっています。彼女は、ソーシャルロボットに関する研究で、高齢者にロボット人形を与えることを幼児扱いする行為と捉える人々がいることに憤慨していると語ります。
「ロボットを使い始めた頃は、スタッフからも否定的な意見をたくさん受けました」とモイル氏は語る。「会議で発表すると、非人間的だと感じて物を投げつけられることもありました。」
しかし、最近では支援ロボットを取り巻く雰囲気は以前ほど厳しくなくなってきています。多くの有益な事例で活用されているからです。ロボットコンパニオンは認知症の人々に喜びをもたらしています。新型コロナウイルス感染症のパンデミックの間、介護士たちは、赤ちゃんタテゴトアザラシを模した小型ロボット「パロ」のようなロボットコンパニオンを使って、高齢者の孤独感を和らげていました。ヒョドルの笑顔の人形は、病弱と捉えても愛らしく捉えても、同じように親しみやすい反応を引き起こすように作られています。
かわいい?それとも不気味?HyodolのChatGPT対応人形は、高齢者と交流したり、見守ったりすることができます。
高齢者向けのAIコンパニオン開発に取り組んでいるのは、Hyodolだけではありません。イスラエルのIntuition Robotics社が開発したAI搭載製品「ElliQ」は、ニューヨークの高齢者支援のための試験プログラムで使用されています。ただし、ElliQはナイトスタンドに置けるランプのような電球型で、愛くるしいデザインではありません。Hyodol社が目指しているのは、その機能性と、大きな目をしたアザラシ「パロ」のふわふわとした触り心地の良さを融合させることです。
「戦場へのドローンの導入が兵士の任務を変えたのと同じように、急速な社会高齢化は、介護労働力が著しく不足している場所で介護提供者(家族やソーシャルワーカー)の役割の再定義をもたらしている」とヒョドルのイ氏は書いている。

赤ちゃんタテゴトアザラシロボット「パロ」は高齢者の孤独感を和らげることを目的としています。
写真:共同通信AIを搭載していないにもかかわらず、これらの擬似知覚を持つコンパニオンドールは、それなりの懸念を集めている。高齢者介護におけるこうしたデバイスの研究監督に携わってきたモイル氏は、介護を頼りにしている人がドールに過度に執着してしまうケースもあると指摘する。
「私たちが対処しなければならなかったマイナス面の一つは、入居者の中には人形をあまりにも愛し、まるで赤ちゃんのように扱っている人がいたことです」とモイル氏は語る。「抱きしめたり、一緒に過ごしたりできる赤ちゃんのようでした。しかし、少数ながら、あまりにも人形を愛しすぎて、生活の一部になりすぎている人もいました。私たちは、入居者が人形を使う時間をできるだけ減らすよう努めなければなりませんでした。」

AI 搭載製品である ElliQ は、ニューヨークの高齢者を支援する試験プログラムで使用されています。
写真:ElliQコンパニオンドール、特にChatGPTのように幻覚や奇妙な行動を起こしやすいものに言語機能を搭載することは、不気味の谷に突入する可能性があることを意味します。これらのデバイスにAIを組み込むことは、懐疑論者が他のあらゆるものにAIを組み込む際に抱いてきたのと同じ懸念を招くことになります。生成AIは幻覚を起こし、偽情報を吐き出し、あらゆる種類の潜在的なセキュリティ問題を抱えています。さらに、ChatGPT統合から得られるすべてのデータはOpenAIに返されることは言うまでもありません。また、人間を監視し、そのデータを共有するあらゆるデバイスと同様に、プライバシーとセキュリティに関する懸念も山積しています。さらに、介護者が患者に薬の服用を促すためにロボットに過度に依存した場合など、より現実的な問題が発生する可能性もあります。
「ロボットとの会話が安全であることを確実にするために、やるべきことはたくさんあります」とフン氏は言う。「ロボットが人々を非倫理的な行動に誘導したり、情報を収集したりすることはありません。ロボットが高齢者に『クレジットカード番号は?』と尋ねるようなことはしないはずです」
Hyodolによると、人形に搭載されたChatGPTインスタンスは、制御されたプロンプトエンジニアリングによって7歳の孫の性格を模倣するように特別に構成されているという。「Hyodolは、ユーザーの感情を慰め、褒め、常に助けたいという気持ちを表現し、日常生活に大きな関心を示すような会話を心がけています」とLee氏はメールで述べた。「さらに、7歳児の感情と知性に基づいているため、政治や哲学(死、生)に関する質問は避けられるか、時には中立的かつ曖昧な回答をすることがあります。」
しかし、企業が人々に最も脆弱な瞬間に自社製品に頼るよう求める際には、こうした固有のリスクが伴う。モイル氏はこの問題について二つの考えを持っているという。
「AIと話す機会を与えたら、他の社会的な機会がすべて失われてしまうのでしょうか?」とモイル氏は言う。「家族が面会に来なくなるのでしょうか?職員がその人と話しなくなるのでしょうか?」確かにリスクはあるが、彼女の経験では、介護施設の高齢者の多くは、昼夜を問わずほとんどの時間を一人で過ごしていることが多いという。「もし彼らに何かを与えて、それが彼らを幸せにするなら、何も与えないよりずっと良いのです。」
もちろん、これらのデバイスは人間と同じではありません。大規模な言語モデルは、対話する相手を理解するわけではありません。適切な返答を予測することに非常に長けているだけです。そして、人の感情や精神状態を完全に理解する方法を知らないのは当然です。
「人間はAIが捉えきれない、かなり難しい感情を表に出すことがあります」とモイル氏は言う。「AIがもっと洗練されれば、おそらく状況は改善されるでしょうが、現時点では明らかにそうではありません」。彼女は少し間を置いてから笑い、こう付け加える。「でも、人間も感情をうまく判断できない人が多いので…」
多くの人にとって、ロボットが愛を返してくれなくても、それは大した問題ではない。だからこそ、私たちはロボットがゆっくりと陰鬱な死を迎えるのを今でも悼み、ロボット犬の葬儀を執り行うのだ。だからこそ、私たちはセックスボットに個性を求め、心の奥底にある欲望を託すのだ。人間がロボットと交流する際、重要なのはロボットが愛を返してくれるかどうかではなく、自分の感情を他者(あるいは何か)に注ぎ込むという行為から、人々がどのように価値を見出すかということなのだ。
「猫や赤ちゃんが私たちに与えてくれたのは、彼らが私たちの愛を必要としているという感覚です。そして、それは私たち人間が切望していることです」とフン氏は言います。誰かが可愛くて抱きしめたくなるようなロボットと交流したいと思う場合、それは多くの場合、同じような機能を果たすためです。「私たちはロボットに愛情を与えたいからこそ、ロボットも私たちの愛を必要としていると感じ、私たちを必要としている何かがいると感じます。それが人間の本質なのです。」
2024年3月20日午後4時01分更新:この記事は、この記事が最初に公開された後にHyodolから送られた声明を含めるように更新されました。