GoogleのGemini搭載スマートグラス、Android XR、Project Moohanヘッドセットを実際に試してみた

GoogleのGemini搭載スマートグラス、Android XR、Project Moohanヘッドセットを実際に試してみた

厚縁の眼鏡をかけている。重くはないけれど、どっしりとした感じだ。ある絵画のポスター――『真珠の耳飾りの少女』 ――に歩み寄り、何がそんなに特別なのかと声に出して尋ねた。ヨハネス・フェルメールの光と色彩の巧みな使い方を簡潔に説明する答えが耳に浮かび、さらに描かれた年代を尋ねると、すぐに同じ声が聞こえてきた。「1665年頃」。

独り言を言っているわけでもない、誓う。空想上の声を聞いているわけでもない。いいえ、私が着けているのは、Googleが近々発売するGemini音声アシスタントを搭載したスマートグラスのプロトタイプだ。同社は今年初めのI/O開発者会議でこのスマートグラスを予告し、「Project Astra」という名称のAI搭載スマートグラスの概念実証ビデオを公開した。私が装着して会話したこのグラスにも、同じAstraの技術が使われているが、今回はそれが実際に機能する製品に組み込まれている。このグラスはまだ開発段階にあり、発売時期は未定だ。

これらのスマートグラスは、Googleが本日発表した重大発表「Android XR」の一部です。この「拡張現実」プラットフォームは、GoogleのモバイルOSがスマートフォン以外の新しいプラットフォームに進出して10周年を迎え、Wear OS、Google TV、Android Autoといったプラットフォームに加わったことを記念するものです。これは、カスタマイズされたAndroidを搭載した仮想現実(VR)および拡張現実(AR)ヘッドセットやグラスの新たな波の到来を予感させるものです。

画像にはサングラスやゴーグルなどのアクセサリーが含まれている場合があります

Project Moohan(コードネーム)、Samsung と共同開発された複合現実ヘッドセット。

Google提供

Androidを搭載した製品のほとんどは、同じ設計図に沿って開発されています。GoogleがOSを管理していますが、Androidソフトウェアを搭載したデバイスは様々な企業が販売しています。しかし、Android XRは、Wear OSスマートウォッチプラットフォームと同様に、GoogleとSamsung(およびQualcomm)の緊密な協力関係によって実現しています。Android XRは、2025年に発売予定のProject MoohanというコードネームのSamsung製MRヘッドセットと共にデビューする予定です。私は、このヘッドセットとメガネのデモを見る機会を得ました。

Android XRは本日、ニューヨーク市で開催された開発者イベントで発表されました。このイベントは、正式製品リリースに先立ち、アプリ開発者にこのプラットフォームへの関心を高めることを目的としています。私のデモはハードウェアとソフトウェアの初期バージョンを使用していたため、体験の様子を写真や動画で撮影することは許可されませんでした。

アンドロイドXR

Android XRの登場は、SamsungとGoogleがそれぞれスマートフォン向けVRプラットフォーム「Gear VR」と「Daydream View」をリリースしてから約10年後のことです。両社とも数年後にVRへの取り組みを諦めましたが、GoogleのAR・XR担当バイスプレジデントであるShahram Izadi氏は、今回は状況が一変したと断言しています。

「テクノロジーは転換点を迎えています」とイザディ氏は語る。「ジェネレーティブAIは、当時は予測が難しかった新しいユースケースと、私たちが経験したいくつかのブレークスルーによって、この種のフォームファクターへのニーズを生み出しました。さらに、開発者のオンランピングや、単一の製品ではなくプラットフォーム的なアプローチも存在します。これらのことが、これが他とは違うという自信を与えてくれます」。彼はまた、GoogleとSamsungが、当初のプラットフォームが終了した後もARとVR技術の開発を継続していることを指摘する。

プラットフォームアプローチは重要です。なぜなら、あらゆるAndroidアプリがAndroid XR対応のフェイスコンピュータで利用可能になるからです。アプリがタブレット向けに最適化された大画面対応エクスペリエンスを提供すれば、さらに機能性が向上します。もちろん、真の空間設計エクスペリエンスを実現するには、開発者はオプトインしてある程度の作業を行う必要がありますが、Googleによると、Androidアプリの開発に現在使用されている多くのツールを使ってAndroid XR向けの開発が可能とのことです。Android XRはOpenXR、Unity、WebXRもサポートしており、アプリやエクスペリエンスとの互換性をより高めています。

しかし、Android XRが他のどのデバイスや以前のバージョンとも異なるのは、GoogleのGeminiアシスタントを中核として開発されている点です。Mixed RealityヘッドセットやスマートグラスでGeminiを起動すると、Geminiはユーザーが見ているものを聞き、見ることができます。例えば、仮想環境内でアプリが乱雑になっている場合、アプリをドラッグする代わりに、Geminiにアプリを並べ替えるように指示できます。また、YouTube動画(サッカーの試合)を視聴しながら、Geminiがリアルタイムでナレーションをしているのを実際に目撃しました。私の体験談を交えて、さらに詳しく説明しましょう。

プロジェクト・ムーハン

SamsungのMRヘッドセットは見た目は良いのですが、標準的なVRヘッドセットと非常に似ています。少しプラスチックっぽい感じがしますが、比較的軽量です。ヘッドレストの裏側にあるお馴染みのダイヤルで締め付けましたが、装着時間は30分近くでしたが、頭に負担を感じることはありませんでした(額は汗ばんでいましが)。AppleのVision Proを参考に、Samsungはヘッドセットの電源として独立したバッテリーパックを採用しています。つまり、このバッテリーをポケットに入れて持ち運ぶ必要があり、2つのパーツの間にはコードが通っていることになります。

矯正レンズが必要な方は、ヘッドセットのパンケーキレンズに貼り付ける度付きインサートを入手できます。より没入感のある体験を求める方のために、ヘッドセットの底部に簡単に取り付けられるオプションのライトブロッカーも用意されています。Samsungには私の度数に合わせた既製のインサートが用意されていたので、メガネを外すことができました。また、ライトブロッカーも併用することにしました。周囲の光をかなり遮断してくれましたが、鼻の周りが少しにじんでしまいました。

インターフェースはVRコントローラーをサポートしますが、すべての操作は基本的に手で行うのが基本です。この点では、Vision Proと非常によく似ています。手を使ってカーソルを動かし、人差し指と親指でピンチして選択します。ピンチイン/アウトでアイテムの拡大縮小やスクロールなども行えます。このヘッドセットは視線追跡機能もサポートしていますが、こちらは少し調整が必要です。セットアップが完了したら、アイコンを見つめてピンチするだけで選択できます。腕を上げる必要はありません。両方を同時に使用でき、反応も良好です。6自由度で仮想環境内の部屋の中を動き回ることができ、壁に近づきすぎた場合でも仮想フェンスで保護されます。

ディスプレイの画質は鮮明ですが、カラーシースルーモードではややピクセル化が見られます。多くのヘッドセットと同様に、Project Moohanは中心窩レンダリングを採用しています。つまり、視界の中心部分の画像が最も鮮明で高品質にレンダリングされ、周辺に向かうにつれて画質が低下します。吐き気やめまいを感じることはありませんでした(VR体験でこれが問題になることはほとんどありませんでした)。しかし、画面中央のものが近すぎるように感じることがありました。これは、ヘッドセットが私の瞳孔間距離(IPD)を検出し、視線追跡カメラを使って調整しているにもかかわらず、単に私の瞳孔間距離に関連した問題である可能性があります(視線追跡データはデバイスから外部に送信されることはありません)。

様々なGoogleアプリを開き、サイズを調整して部屋のあちこちに配置してみました。Chromeなどのアプリではテキストが鮮明に表示され、Google検索から取得した3Dモデルは非常に精細に見えました。Googleはアプリを空間環境向けに最適化していると述べており、例えばYouTubeはインターフェースを分解し、動画を中央に配置し、左側に動画の説明とコメント、右側に関連動画を配置しました。

アプリとのやり取り

Google提供

写真トリック

Google提供

Googleフォトには、さらに便利な機能が追加されました。あらゆる写真を通常の2D表示に加え、空間的に3D表示することも可能です。フィルムカメラ、スマートフォン、プロ仕様のミラーレスカメラなど、どんなカメラで撮影したかは関係ありません。Googleによると、機械学習モデルを用いて画像や動画の奥行き感を理解することで、空間コンテンツをキャプチャすることなく、より没入感のある3Dメディア体験を実現しているとのことです(ただし、空間キャプチャ機能は、Vision Proの登場後にiPhoneに追加された機能と同様に、将来的にはPixelスマートフォンにも搭載される予定です)。

小さな男の子が新生児と触れ合う2D動画を視聴していたのですが、没入感ボタンをタップすると、動画に急に奥行きが増し、よりリアルな臨場感を感じました。被写体の周りのエッジがギザギザしている部分があり、スマホのポートレートモードではぼかし具合がうまく調整できない時のような感じでした。何らかの処理が行われているのは明らかでしたが、それでも素晴らしい映像でした。とはいえ、VRヘッドセットを装着して思い出を追体験するつもりはまだありません(今のところ)。

もちろん、Bluetoothキーボードとマウスを接続すれば、複合現実(MR)環境で作業できます。集中したい場合は没入型環境に入り込み、シースルーモードをオンにしておけば、同僚が写真を撮ったりクスクス笑ったりしていないか確認しながら、自分が馬鹿げたヘッドセットを装着して仕事をこなすというわけにはいきません。ヘッドセットをノートパソコンに接続してMR環境で作業できるかどうかは不明です。これはApple Vision Proに搭載されている機能です。

XRのジェミニ

ヘッドセットの側面をタップするとアプリランチャーが起動し、Geminiを常時オンにしたい場合はここでオンにできます。オンにすると、仮想空間の上部にアイコンが表示され、あなたが話したり見たりしたすべてのものがGeminiに記録されていることがわかります。

シースルーモードでは、物体に近づいてGeminiに質問することができます。ヘッドセットのデモを行っていたGoogle社員(私が試す前)が、FCバルセロナのシャツを着た別の人に近づいて、Geminiに「このチームの順位表」を調べてほしいと頼みました。Geminiはすぐにチーム名を登録し、リーグの順位表や最近の試合のスコアなどの検索結果を表示しました。

Geminiにこのように何でも質問すると、ヘッドセットに視覚的な結果が表示され、返答してくれます。「ペルーに連れて行って」と頼むと、Googleマップの3Dバージョンが開きました。リマを中心に移動したり、マップに既に3Dモデルが豊富に用意されている都市では、より詳細に地域を探索したりできました。これらの体験ではGeminiに話しかけ続けることができるので、「いつ行くのが一番いいですか?」などの質問をすると、すぐに答えが返ってきました。

通知と Google マップ ナビゲーションは、現在機能しているアプリのインタラクションのうちの 2 つです。

Google提供

別の例として、ニューヨーク市のレストランを覗いてバーチャルツアーを体験してみました。Googleによると、AIを使って店内の画像をつなぎ合わせ、まるでその場にいるかのような臨場感で表示できるそうです。その精度はかなり高く、レストランの名前をじっと見つめていたので、名前を言わなくても予約は可能かどうかGeminiに尋ねました。予約は可能でしたが、Geminiは私のために予約を取ることができませんでした。(この機能は後日実装されるかもしれません。)

次にYouTubeで動画をいくつか視聴してみました。2Dコンテンツは鮮明で色鮮やかに映ります。立体視コンテンツはさらに素晴らしく、まるで五感で包み込まれているような感覚でした。トレイルを歩くハイカーたちを見て、Geminiに「ここはどこ?」と尋ねると、「ニュージーランド」と答えました。確認はできませんでしたが、正解のようでした。さらに空間的に拡張された2D動画の再生も見てみると、バーチャルプレーヤーが奥行きとレイヤー感を加え、3Dのような臨場感を演出していました。Google TVアプリを開き、「シネマモード」をオンにすると、他のVRヘッドセットと同じように、映画や番組を視聴できるバーチャルシアターが起動しました。

YouTube の立体コンテンツは素晴らしいです。

Google提供

Googleが今年初めにAndroidスマートフォン向けに発表した機能「Circle to Search」が、Android XRでも利用可能になりました。近くにある物体に近づき、ヘッドセットの上部ボタンを押して、詳しく知りたいものをピンチインして円を描くだけで、検索結果を含むGoogle検索ページが表示されます。

スマートグラス

Project Moohanは、GoogleとSamsungがVR市場の他の企業に追いつこうとしているようにも感じられますが、Geminiとの連携によって、彼らの取り組みは独自の層を帯びています。しかしながら、正直なところ、Geminiの方がもっと便利に使えるスマートグラスを試すことにずっと興奮していました。そして、その期待は裏切られませんでした。別の部屋に行くと、目の前には数種類のメガネが置かれていました。サングラスもあれば、クリアレンズのものもありました。ヘッドセットと同様に、処方箋を読み込ませることもできます。Googleはこのプロトタイプのメガネに名前を明かしていません。

Googleのスマートサングラスをかけた人物が森の中で写っているGoogleのプレス画像

現時点では名前が明かされていないこのメガネには、クリアレンズと色付きレンズのオプションが用意される。

Google提供

このメガネは太めのテンプルですが、Meta Wayfarersのようなメガネとそれほど変わりません。数年前、GoogleはスマートグラスメーカーのNorthを買収しており、そのデザインの影響は明らかです。新しいフレームはNorthのFocalsよりも明らかにスリムで、掛け心地も快適です。ただ、目の周りの厚いリムには慣れが必要です。フレームにはカメラが内蔵されており、カメラが作動するとLEDが点灯します。

処理の大部分は、セットアップ時にフレームとペアリングするスマートフォンで処理されます。処理の大部分をスマートフォンにオフロードすることで、このスマートグラスのバッテリーは「一日中」持続する、とGoogleは期待しています。Metaのスマートグラスとは異なり、Googleのスマートグラスにはディスプレイが搭載されています。さらに、ディスプレイを全く搭載していないがGeminiにアクセスできるタイプ、片方のレンズに単眼ディスプレイを搭載したタイプ、最高の体験を提供するために前面中央に両眼ディスプレイを搭載したタイプなど、選択肢が用意されるかもしれません。それぞれ価格が上がると思われます。

フレームの側面をタップするとディスプレイが起動し、日付、時刻、天気などの一般的な情報が表示されます。その後、アプリを起動できます。Googleマップを一足早く試してみましたが、前方を見ると、現実世界にターンバイターン方式の道順が重ねて表示されます。視線を下に向けると、まるでスマートフォンを見下ろしているような感覚でGoogleマップアプリが表示されます。ルート全体を確認したい場合、現在のナビゲーションを俯瞰的に表示してくれます。(Googleによると、今後他のアプリとの連携も予定されています。)

目玉はGemini(Gemini 2.0搭載)で、メガネのアーム部分をタップするだけで起動と一時停止ができます。私が見つめていた絵の重要性についてGeminiに説明を求めたところ、簡潔な返答が返ってきました。次に、スペイン語の道路標識を見つめていたので、Geminiに翻訳を依頼すると、翻訳されたテキストが標識の上に重ねて表示されました。さらに驚いたのは、Googleが私の前に誰かを立たせてスペイン語で文章を話させた時です。その言葉はメガネ上でリアルタイムに英語に翻訳され、スマートフォンのアプリを操作しなくても理解できました。

ねえジェミニ、昼食は何?

Google提供

昨年のGoogle I/Oで、Googleは現実世界の会話に字幕を付けられるスマートグラスを発表しました。これは聴覚に障害のある人にとって便利な機能です。私はデモでこの機能の動作を実際に見ることができました。体験は完璧ではありませんでしたが、会話を追うには十分でした。正直なところ、デジタル環境ではなく現実世界に立っているのに、人の顔の下に文字がポップアップ表示されるのを見るのは、少し驚きました。

次に、棚に置かれた数冊の本に近づき、1冊を選びました。本を開いてランダムにページを選び、Geminiにそのページの要約を頼みました。すると、驚くべき速さで要約が書かれ、登場人物2人の会話がハイライト表示されました。Geminiにはもう一つ、見たものを記憶する短い時間枠があるという便利な機能があります。私がその本棚から立ち去った後、棚にある「黄色い本」(私自身は見ていません)の名前を尋ねると、すぐに名前を教えてくれました。このコンテキスト認識型の時間枠は「数分間」なので、その日の早い時間に見たものを思い出させるようにGeminiに頼むことはできませんが、Googleはこの時間を延長する取り組みを進めているとのことです。

デモは続きました。ネスプレッソマシンに近づき、ジェミニに使い方を尋ねました(目の前に置かれたマシンを見ただけで、モデル名を一発で正しく認識してくれました)。「OK Computer」のレコードを見ながら、レディオヘッドのアルバムから一曲をグラスのスピーカーから再生するようにジェミニに頼みました。ジェミニ2.0は多言語対応なので、目の前の別の絵について、第二言語であるマラヤーラム語で説明してもらうように頼みました。私は母国語ではありませんが、単語を聞き取ることはでき、ほぼ母国語のように聞こえました。英語が母国語ではない母が、このスキルを活用できそうな気がします。

スマートフォンとペアリングされているので、通知もメガネに表示されます。これらの通知はAIによって要約されるため、まるで目の前に大量のテキストが押し付けられているような感覚はありません。また、Geminiの音声コマンドを使って応答することも可能です。メガネの右アーム上部にあるボタンをタップするだけで写真を撮ることができ、撮影後にはメガネにプレビューが表示されるので、フレーミングを調整する必要があるかどうかを確認できます。ディスプレイが内蔵されているので、動画の再生も可能で、短い動画を視聴してみました。画面は小さく、画像も鮮明ではありませんでしたが、Googleによると、最終版では数倍明るく鮮明になるとのこと。

グラス、10年後

大学の寮の部屋で、初めてGoogle Glassのデモを見た時のことを覚えています。Google I/O 2012のまさに象徴的な瞬間でした。人々がサイボーグ型スマートグラスを装着してモスコーニ・コンベンションセンターに向かってスカイダイブし、その様子をハングアウトでストリーミングしながら進んでいく様子が映し出されていました。Android XR搭載のこのスマートグラスは、それほど注目を集めているわけではありませんが、限られた時間の中ではこう言えます。これまで試したスマートグラスの中で、Google Glassの当初のビジョンを最も実現していると言えるでしょう。

しかし、Googleも企業として2012年とは大きく異なる状況にあります。最近、判事はGoogle検索を違法な独占と判断、Google Chromeの売却を命じました。しかし、Google(とSamsung)は今、次世代の空間コンピューティングのプラットフォームを目指しています。VRもまた、消費者の関心の揺らぎにより困難な道のりを歩んできました。Googleがプロジェクトを中止してきた歴史を考えると、特殊な(そして高価な)ハードウェアを必要とする顔認識コンピューティング・プラットフォームが、これまでの多くのアプリやサービスと同じ運命を辿るのかどうかは予測が困難です。

イザディ氏は、その点ではプラットフォームアプローチが役立つと述べている。「Android 専門企業として確立すれば、すぐに消えることはないと思います。これは私たちが提供できる保証のようなものだと思います。」

大きな賭けは、GeminiとAIにあるようだ。そして、GoogleとSamsungの相乗効果も忘れてはならない。Project Moohanを率いるSamsungのエグゼクティブバイスプレジデント、Kihwan Kim氏は、「これは一部のチームや企業が作ったものではありません。全く新しいものです。AIがVRとARにどのような影響を与えることができるか、ゼロから考え出すのです」と述べている。さらに、Googleとのコラボレーションは「一つの精神」のように感じられ、この分野ではこれまで経験したことのないものだと付け加えた。

訂正:以前の記事では、Googleのスマートグラスが2025年に発売されるとお伝えしていましたが、Googleは具体的な発売時期を明らかにしていません。記事の中でこの点を明確にしました。