「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day2 速報サマリー
「XR」世界最大のエキスポ「AWE USA2025」視察 Day2 速報
こんにちは、サービシンクの名村です。
サービシンクでは2024年から「AR(拡張現実)」「MR(複合現実)」の可能性を探るためにR&Dを開始しています。またこれに「AR」「MR」に「VR(仮想現実)」を加えたものの総称として「XR」という言葉があります。
この「XR」の関する世界最大のエキスポ「AWE USA2025」が2025年06月10日 ~ 2025年06月12日、アメリカのロサンゼルスにある「Long Beach Convention Center」で開催されています。(AWE=Augmented World Expo)

この「AWE USA2025」に当社のR&D担当の藤原が視察に行っており、2日目(2025年6月11日:Day2)の会場で当社が視察したもののサマリーをお送りいたします。
サービシンクのAWE USA2025 サマリー記事一覧
- 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day1速報サマリー
- 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day2速報サマリー」
- 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day3速報サマリー
AWE USA2025 開催概要
| 会期 | 2025年06月10日 ~ 2025年06月12日 |
| 開催地 | ロングビーチ / 米国 / 北米 |
| 会場 | Long Beach Convention Center |
| 出展対象品目 | 空間コンピューティング、クロスリアリティ(XR)、拡張現実(AR)、仮想現実(VR)、複合現実(MR)、AI、バイオインターフェース、ハプティクス、5G、ストリーミング、スタートアップ、投資 |
| 主催者 | AWE XR, LLC |
| 業種 | 情報・通信/通信、情報処理、コンピュータ 情報・通信/新聞、放送、映像(映画、フォト) 趣味・教育/玩具、遊戯用具、ゲーム用品 イノベーション・スタートアップ/イノベーション・スタートアップ |
| ウェブサイト | https://www.awexr.com/usa-2025 |
Niantic Spatial: Transforming How We Understand the World Through Geospatial Intelligence
スマートグラス以前はGoogle Mapsの時代。かつては「インターネット=Google検索」だったが、2005年以降、地図(Google Maps)がリアルのインターフェースへと進化。同社は企業買収(KeyholeやWhere 2 Technologies)を通じて、地理情報の検索可能化を実現。これがUber、Lyft、DoorDash、Zillowなどのエコシステムを生み出した。
そして現在は、ChatGPTやGeminiなどの大規模言語モデルによる新たな検索時代。しかし、言語モデルは「地理や空間情報」についてはまだ未熟で、現実世界を正確に理解するには不十分。

Niantic Spatial
5月29日に新ゲームシステムを売却し、Geospatial Intelligence(地理空間インテリジェンス)に特化した企業へ変革。人間とAIの両方が現実世界を理解すること、活用するためのインフラを作ることを目指している。

空間認識の3つの技術
- Capture(地形取得)
- Scanniverse(スキャンアプリ)、新デバイス「Photon」、ドローンなどで3D地図を構築
- 100万以上の地点を再構築可能に
- Locate(位置特定)
- 高精度なビジュアルローカライゼーション技術(GPSよりも詳細)
- 複数人が同じAR体験を共有できる
- Augment(拡張)
- 実空間への精密なAR投影。エンタメ・観光・リモート業務などに応用

地図の刷新とAI地図モデル
Google時代の地図は優れていたが、常に変わる現実には対応しきれない。Nianticはスキャン用ドローンのデータに加え、LGM(Large Geospatial Model=巨大地理空間モデル)で地図を常に最新化する。
「Niantic Spatial: Transforming How We Understand the World Through Geospatial Intelligence」セッションへのR&D担当 藤原のまとめ
Nianticはもはや「ゲーム企業」ではなく現実世界を“読み解くAI地図”を作るインフラ企業へと転身。LGMを用いたスケーラブルで高精度な「AI地図」を作り、Google Mapsの次を目指す存在になろうとしている。
スマートフォンからスマートグラスへのデバイスの進化により、AIが空間認識を持つ必要性が高まっているという話は、昨日のセッションで聴いたAIとXRの共生ともリンクするため興味深い。
The Great Reversal: Digital Beings in the Physical World
Great Reversal(大逆転)とは何か
- 今まで:人類は言語やアートを通じて「デジタル世界」へと没入してきた(例:物語・小説・映画・スマホ画面など)
- これから:デジタルの存在(AI)が物理世界にやってくる時代へと反転している
倒れた木を見て「ソファみたいだね」と言えば、木が「座れるもの」に見えるように、言葉が現実を拡張している。このようにARにも他人の心に入り込み、認知を変える力を持っている。
なぜ今「空間コンピューティング」が重要なのか。世界のGDPの70%以上が「物理的なもの」に関わっている。現在のAIは言語や数字には強いが、物理世界を理解・操作できない限り本当の意味で役立たない。AIの次のステージは「物理空間を理解するAI(Physical AI)」であり、空間コンピューティングによってAIが物理空間を理解し、実世界に貢献できるようになる。
「The Great Reversal: Digital Beings in the Physical World」R&D担当藤原のまとめ
AIが現実世界を理解・操作できるようにする「Physical AI」の重要性が語られた。AIに空間の意味を理解させれば、結果的に人間にとっても世界が分かりやすくなる。
これまで人間がデジタル世界に没入していた時代から、デジタル存在が物理世界に出てくる「大転換(Great Reversal)」が始まっているという。
Android XR: A New Reality Powering Headset and Glasses
パソコン、ノート、スマホ、タブレットといったこれまでのコンピュータは「四角い画面」の中に収まっていた。Googleはこの枠をXRによって越えようとしており、それを実現するためのOSとして「Android XR」を紹介した。今は技術的な融合が進んでおり、GeminiのようなAIモデルがAndroid XRを支える中心技術になる。

Geminiは、複数の入力を統合的に処理し、自然な形でユーザーの意図を理解する。
そのため、より直感的でシームレスな体験を可能にする。Googleはこの分野においてGoogle Glass以降も継続的に取り組んでおり、様々な技術資産を持つことを強調した。
GoogleはAndroid XRを「ヘッドセットからスマートグラスまで」一貫して対応するプラットフォームとして位置づけている。Geminiとの連携により、デバイスはコンテキストを理解し、ユーザーの状況に応じて情報を提示したり行動したりできるようになる。
スポーツ観戦中に選手について質問すれば、プレイ解説やハイライト動画などを表示するといったデモンストレーションが紹介された。
ヘッドセットについては、既存のAndroidアプリとの互換性があり、仮想空間と現実空間のシームレスな切り替えが可能。第一弾のデバイスとして、Samsungとの協業による「Project Moohan」が発表された。このデバイスは従来のAndroidアプリにも対応する。また一例として、Geminiを介してGoogle Mapsと連携し、「行きたい場所を話すと、その場にテレポートするような体験」が可能になる。

一方で、スマートグラスは日常的に装着できる軽量性が求められる。Googleは過去10年以上にわたってこの分野に取り組んでおり、今回のキーノートでは、カメラ・マイク・スピーカーを搭載したAI対応のグラスが紹介された。これらのグラスはスマートフォンと連携して動作し、視界への通知表示や翻訳、ナビゲーション支援などを想定している。地下鉄に入ろうとした瞬間に「運休中」という通知が視界に表示される2012年のGoogle Glassのコンセプトが、ようやく現実になろうとしている。
また、Ray-Ban等を手がけるLuxotticaとのパートナーシップ、Samsungとの協業によるスマートグラスの開発も発表され、開発者向けのリファレンスハードウェアも年内に公開予定とされた。GoogleのXRエコシステムディレクターからは、「プラットフォームの断片化」が課題であるという認識が示された。複数のOEMやSDKが乱立することにより、開発者やユーザーが混乱するという課題に対応するため、Samsungと1つのチームとして連携し、共通の基盤で構築を進めている。
開発者にとっての参入障壁を下げるため、Android StudioやJetpackライブラリを拡張してXR対応とし、UnityやOpenXR 1.1への対応も行っている。すでにAndroidアプリを開発している開発者であれば、そのスキルをそのままXR領域に活かすことが可能。
Google I/Oで提供された開発者プレビュー以降、数百の開発者がAndroid XRに取り組んでおり、YouTubeなどGoogleの既存サービスのXR版も現在開発中。
「Android XR: A New Reality Powering Headset and Glasses」セッションへのR&D担当 藤原のまとめ
GoogleのAndroid XRは、ヘッドセットとスマートグラスという、これまで別々に進化してきたデバイスを共通のプラットフォーム上で扱おうとしている点が非常に興味深い。GoogleはARグラスに対して長年研究を重ねてきた技術資産を持ち、さらに独自のAIであるGeminiとの統合も進めており、こうした総合力は大きな強みになるだろう。Web開発者として気になるのは、スマートグラス上でも複雑なアプリの動作を想定しているのか、それとも高度な操作が必要な場面ではスマートフォンとの連携を前提としているのか、という点である。今後の開発者向け情報や実機での体験を通じて、そのあたりに注目していきたい。
Dream It, Build It: Developing Immersive AR with Snap Spectacles and Lens Studio
セッション冒頭(Snap側より発表)
Snapは新しいSpectacles(次世代ARグラス)を発表。より軽量で、直感的な操作が可能に。WebXRに対応したSpectacles用ブラウザが2025年秋にリリース予定。
オープンAI(Geminiなど)やカスタムMLモデルがLens Studioで利用可能になる。視覚的なAI統合がAR体験の中で自然に可能になる。
Spectaclesの特徴
- コントローラーなしで手のジェスチャーで操作
- 透過ディスプレイと自動調光レンズ
- 屋内外で自然なAR体験が可能
- 複数人での共有AR体験にも対応
Lens Studioの機能
- 開発 → テスト → デプロイまでをLens Studio内で行える。コンパイルやビルドを待つ必要はない
- プリセットUIや、手で動かすUI部品が含まれたインタラクションキットを用意
- Sync Kitで、複数人のデバイスで同期した体験を簡単に構築可能
- ML Kitでは外部でトレーニング済みのモデルを取り込み、物体検出や行動判定に活用できる
事例紹介
① Emo Crume(Snap):ARバスケットボールトレーナー

実世界のバスケットゴールをトラッキングし、ARで練習/チャレンジ/フリープレイができる体験を提供。スコア記録、ショットの精度判定などもリアルタイムに反映。
技術的工夫
- ボールの軌道とゴールを複数モデルで二重確認することで誤判定を回避
- 遅延を考慮して数フレーム分遡って判定
- 大量のアニメーションを効率よく管理するためにモジュラー構成を採用
② Ray Colmeyer(Enklu):魔法をテーマにしたマルチプレイヤーAR「Sightcraft」

ユーザーの直感・集中力を促す“魔法のような”対戦型ARゲーム。身体の動きとリアルタイム反応を重要視。
技術的特徴
- 手の動きで魔法を放つ操作感を再現
- TypescriptとLens Studioの相性が良く、3D演出やジェスチャーのリアルなレスポンスを実現
- Snap提携のAR施設で実際に提供中
③ Will Eastcott(PlayCanvas):WebXR + Gaussians(超高密度スキャン)

SuperSplatというツールで、現実を高精度3Dデータに変換。SnapのSpectaclesとWebXRを用いて、これらのデータをAR空間に表示。
技術的挑戦
- 数百万点のガウススプラット(光のにじみのような表現でリアルな3D空間を描く技術)をSnapの軽量グラスでリアルタイム表示
- 教会の内部など複雑なシーンを17分の1まで圧縮し、品質を維持
- 今後はアニメーションや4D表現(時間変化を伴う点群)にも対応予定
「Dream It, Build It: Developing Immersive AR with Snap Spectacles and Lens Studio」セッションへのR&D担当 藤原のまとめ
Snapは「観るAR」ではなく「参加するAR」に重点を置いている。複数人での体験・カスタムAI活用・WebXR統合の3つを合わせて体験の深みを増す方向性。PlayCanvasとSnapの提携は、WebXRとスマートグラスの融合を期待させる。SuperSplatによる3Dマップは今後の「デジタルツイン」「没入Web」の中核技術になり得る。
Empower Developers - Bring Web and AI to Spatial
登壇者Ruoya氏(PICOのプロダクトマネージャー)は、もともとMadRabbitsでXR用カメラを開発していたエンジニア。
個人的に「現実で見つけたお気に入りのドレスをカメラで撮って、AIが解析して購入リンクを提示してくれるような、没入型ショッピング体験」を夢見ていたが、「UnityやUnrealの習得は敷居が高すぎた」「プライバシー保護のため、カメラデータのローカル処理が求められた」という課題に直面し、「Web開発の延長で簡単にXRアプリが作れたら?」という思いから生まれたのが今回のツール。

WebSpatialとは、HTML/CSS/JavaScriptでネイティブアプリのような空間UIが構築できるOSSフレームワーク。UnityやUnrealの知識は不要。Reactベースの既存プロジェクトに追加可能。WebXRの枠を超え、自由にウィンドウ化・Z軸配置ができる
ReactやHTMLの延長として扱えるため、特別な3Dエンジンや複雑な知識を必要とせず、低い学習コストで空間アプリケーションを構築可能。インターフェースの各要素を「ウィンドウ」として空間内に自由に配置でき、2Dと3Dを自然に混在させた表現が可能になる。
Apple Vision ProやAndroid XRだけでなく、モバイルやタブレットといった幅広いデバイスに対応しており、将来的なARグラスへの展開も視野に。オープンソースかつ特定プラットフォームに依存しない設計のため、誰でも参加・拡張が可能。
SecureMR
- SecureMRとは、カメラ画像やユーザーの動きなどのXRデータを端末内でAI処理するためのセキュアな基盤
- サーバーにデータを送信せず、完全ローカルでモデル推論が可能
- Appleの「Neural Engine」やQualcommの「NPU」にも対応
主な機能
- AIモデルは簡単に組み込み可能で、プライバシーデータは開発者には渡らない
- 明示的な入力(カメラ画像、ジェスチャー)と暗黙の入力(ライティング、端末姿勢)を組み合わせてコンテキストを認識する
XRを本当に普及させるには、習得が難しいUnityなどに頼るのではなく、「世界中のWeb開発者がそのまま使える」道をつくることが重要。WebSpatialはまさにそのためのプロジェクトであり、Webを「空間化」するインフラをOSSとして提供する。SecureMRはその上に「プライバシー保護されたAI活用」をもたらす。
「Empower Developers - Bring Web and AI to Spatial」R&D担当藤原のまとめ
これまで自分は「3D空間にWeb情報をどう配置するか」という視点でXRとWebを考えてきたが、「Webサイト自体をどう3D空間に展開するか」という視点も必要だと感じていた。Web Spatialはまさにその課題に対する一つの有効なアプローチであり、Webの延長線上で自然に空間UIを構成できるという点で、非常に実用的かつ現実的だと思う。
以上、Day2のサマリーでした
初日に引き続き、サービシンクのR&D領域における「AR/MR✕Web」という視点での視察となっております。サービシンクでは2018年から「スマホの次はスマートグラスになる」ということを標榜してきました。今回の視察内容ではそれが実現しつつあるのを強烈に感じる内容になっていました
- 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day1速報サマリー
- 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day2速報サマリー
- 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day3速報サマリー
サービシンクでは今回の「AWE USA2025」には開催期間全て滞在して視察をしてきます。明日以降も当社の担当がみてきたものについては速報をお届けいたします。
またのR&D活動はブログで定期的に公開していますので「ブログ−AR/VR/MR」カテゴリーをぜひご覧ください。
Webサイト・システムの
お悩みがある方は
お気軽にご相談ください
出張またはWeb会議にて、貴社Webサイトの改善すべき点や
ご相談事項に無料で回答いたします。
