「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day1 速報サマリー

「XR」世界最大のエキスポ「AWE USA2025」視察 Day1 速報

こんにちは、サービシンクの名村です。
サービシンクでは2024年から「AR(拡張現実)」「MR(複合現実)」の可能性を探るためにR&Dを開始しています。またこれに「AR」「MR」に「VR(仮想現実)」を加えたものの総称として「XR」という言葉があります。

この「XR」の関する世界最大のエキスポ「AWE USA2025」が2025年06月10日 ~ 2025年06月12日、アメリカのロサンゼルスにある「Long Beach Convention Center」で開催されています。(AWE=Augmented World Expo)

AWE USA2025会場

この「AWE USA2025」に当社のR&D担当の藤原が視察に行っており、初日(2025年6月10日:Day1)の会場で当社が視察したもののサマリーをお送りいたします。

サービシンクのAWE USA2025 サマリー記事一覧

  1. 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day1速報サマリー
  2. 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day2速報サマリー
  3. 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day3速報サマリー

AWE USA2025 開催概要

AWE USA2025 Web Site Image

会期 2025年06月10日 ~ 2025年06月12日
開催地 ロングビーチ / 米国 / 北米
会場 Long Beach Convention Center
出展対象品目 空間コンピューティング、クロスリアリティ(XR)、拡張現実(AR)、仮想現実(VR)、複合現実(MR)、AI、バイオインターフェース、ハプティクス、5G、ストリーミング、スタートアップ、投資
主催者 AWE XR, LLC
業種 情報・通信/通信、情報処理、コンピュータ
情報・通信/新聞、放送、映像(映画、フォト)
趣味・教育/玩具、遊戯用具、ゲーム用品
イノベーション・スタートアップ/イノベーション・スタートアップ
ウェブサイト https://www.awexr.com/usa-2025

Welcome Keynote

AWE USA2025 Welcome Keynote

  • XRはついに「メインストリームの時代」に突入した。「XRは未来ではなく今」。
  • モバイルから空間コンピューティング(Spatial Computing)への転換が起きており、今がまさにその時。課題は、MRデバイスと同等の計算能力を、10分の1の電力・30分の1のバッテリーサイズで実現しなければならないこと。AIとXRの共進化により、こうした課題の克服が進んでいる。
  • より軽量でファッショナブルなスマートグラスを実現するために、プロセッサやAI処理を外部(スマートフォンやPCなど)にオフロードする設計が進行。MetaやRay-Ban、Snap、Samsung、Googleといったパートナーがこの方向性に沿って製品を開発中。MetaとRay-Banのコラボ製品は、ファッション性と機能性を兼ね備えたスマートグラスとして成功。
  • SnapのSpectaclesは、リアルタイムAR体験と2系統の処理アーキテクチャを特徴とする。
  • 複数の製品が「軽量」「没入型」「高性能カメラ」などの特長を競い合っている。米国内300学区で数学・理科のXR教材を提供し、学力向上(11%)に寄与。医療分野では、MR技術を使った診療で、痛み・不安・ストレスの大幅軽減(最大50%)。スポーツ分野では、観戦体験の新たな可能性を提示。T-Mobile、Googleなどと連携中。
  • GoogleとSamsungが「Android XR」プラットフォームを発表。Project Moohan(サムスン製デバイス)を皮切りに、Gentle Monsterなどファッションブランドとの連携も進行。Gemini AIとXRの連携を見据えている。

AWE USA2025 Welcome Keynote2

  • 生成AIでユーザーごとにカスタマイズされた3D世界が構築可能になる。ARグラス上のAIエージェントが、視覚・聴覚・心拍・ストレス・行動履歴などを統合し、個人最適化された支援を提供。ウェアラブル(時計やグラス)を組み合わせた「文脈に応じたAI」がキーとなる。
  • 新製品「Snapdragon AR1+ Gen 1」を発表。20%の小型化・7%の省電力化に加え、高性能カメラと夜間でも読み取れる認識機能を搭載。

「Welcome Keynote」セッションへのR&D担当 藤原のまとめ

AWE 2025の基調講演では、「XRとAIの融合」がメインテーマでした。
XRデバイスはより軽く・ファッショナブルに進化しており、AIとの連携でユーザーに最適化された体験が実現しつつあります。
GoogleやMeta、Snap、Samsungといった企業がそれぞれ独自のXRプラットフォームと製品を発表し、教育・医療・スポーツなどの社会実装も進んでいます。今後はウェアラブル間の連携による文脈理解が鍵となり、生成AIによる個人最適体験が普及する見通しです。

Accelerating the Spatial Computing Revolution for Developers and Enterprise

  • 空間コンピューティングの時代が来た。スマートグラスやMRデバイスの計算能力を、より軽量で省電力なデバイス(スマートグラスなど)に適応させる必要がある。これは、10分の1の電力、30分の1のバッテリーで従来と同等のことを実現するという「厳しい問題(concise problem)」。その解決には、トランジスタレベルの革新、低消費電力でのAI処理、優れたカメラとコンピュータビジョン技術が必要。
  • XRとAIは「共生(symbiotic)」関係にあり、相互に支え合って進化している。AIエージェントがスマートグラス上で動作すれば、ユーザー体験が根本的に変わる。最終的には、エージェントAIにとって最良のインターフェースはスマートグラスになる。
  • 新チップ「Snapdragon AR1 Gen1+」が発表。サイズ20%縮小、電力効率7%向上。
  • 暗所でもメニューが読めるような高性能カメラや、モーション補正つきリファレンスフレーム処理を搭載。
  • 小型端末上で同時に3つのモデル(音声認識・LLM・TTS)を走らせる。

  • スマートグラス用スマートリングの発表。新たに発表された スマートリング型コントローラー は以下の機能を搭載:
    • ジェスチャーによる入力
    • ヘルスモニタリング(健康指標の取得)
    • デバイス操作のための多機能制御
    • ポインタやマウスが使えないデバイスに最適な入力方式
  • 【戦略総括】XR製品群とAI統合のロードマップ。
    • XR関連製品ライン(例:X2+ Gen2, AR1+ Gen1)のロードマップが完成に近づいた。
    • AI×XR時代のプラットフォームとして「Snapdragon AR1+ Gen1」は軽量ながら10億パラメータ級の大規模言語モデルをネイティブで動作可能。
    • 今後も教育・医療・スポーツなど多様な分野でパートナーと連携を継続。
    • Ringコントローラー、Spacesとの互換プラグイン、Android XR対応、そしてパートナー拡大が進行中。

「Accelerating the Spatial Computing Revolution for Developers and Enterprise」セッションへのR&D担当 藤原のまとめ

QualcommはAWE 2025にて、AIとXRの融合を実現する技術群を発表しました。
軽量スマートグラス上でのAI対話デモに始まり、リング型入力デバイスやAI対応SoC(AR1+ Gen1)を通じて、「身につけるAI」が現実のものとなりつつあることを示しました。
教育・医療・スポーツなど応用領域も広く、XRとAIの統合はイノベーションの速度をさらに高める原動力になると強調されました。

Bringing AI and AR Into the Real World Through Spectacles

基調講演:SnapchatとSpectaclesのAR・AI戦略(Evan Spiegel)

Snapの現状とAR事業の紹介

  • Snapchatは現在世界で9億人以上のユーザーを持ち、ARレンズは1日80億回以上使われている(Google検索の約半分の規模)。
  • ARレンズはSnapchatカメラ以外にも、スタジアム、鏡、ショッピング、エンタメなど多方面に展開。
  • 400,000人以上のAR開発者が、これまでに400万以上のレンズを開発。
  • Snapはこの10年以上、$30億以上をARグラスに投資しており、チャット機能より先にARグラス開発を始めていた。
  • 「我々は、コンピューターをより人間的にすることに取り憑かれている」

新しいSpectaclesの特徴とデモ

  • 完全にスタンドアロンで、軽量・透過型ARグラスを提供
  • Snap独自のOSで動作。外部バッテリーやケーブル類は不要
  • 既に開発者が多数レンズを開発中。展示会場でも体験可能

紹介されたARレンズ例:

  • 弓道ゲーム(Phil Walton)
  • ドラム練習レンズ(Paradel)
  • AIで冒険を導く「Whis Worldor」
  • 通貨換算・翻訳サポート(GoA)
  • 空間計測(Adam Bargo)
  • クラシックモバイルゲームを3D化(Resolution Games)

プラットフォーム機能の強化

  • OpenAI や Geminiとの連携により、3D空間上に情報を表示。
  • 新API
    • 音声認識API(翻訳・議事録など)
    • GenAIによる3Dモデル生成API(Snap 3D API)
    • NianticのVisual Positioning Systemとの統合
    • 新しいデバイス連携API(IoT的接続)
    • ガイド付きARナビ(観光・展示向け)
    • フリート管理(複数グラスの遠隔監視)
    • Guide Mode(任意レンズの自動起動)
    • WebXR対応も近日追加予定

一般販売モデルの発表

  • 2026年に一般販売予定
  • 小型化
  • 重量削減
  • 互換性:現在のレンズがそのまま使用可能

Snapのビジョン

Spectaclesは単なるガジェットではなく、「自然なコンピューティング体験」の具現化。
コンピューターとの関係をより人間的・社会的・共有可能に変えていく。

Q&Aセッション

Q1. AR体験と2D画面の将来の関係性は?

ARは柔軟な画面サイズで拡張された体験を提供可能。2D UIも一部残るが、今後は共有型で空間的な体験が主流になる。

Q2. SnapのAR戦略は「体験」なのか、「SNSビジネス」なのか?

Snapの哲学は「技術を人間的にすること」。Spectaclesも、人との共有や自然な体験を強調するもので、SNSよりも人間中心のインターフェースを重視。

Q3. AR体験の設計上の最大の難しさは?

 開発者ツール、OS、ハードウェア、光学技術など全てを統合した縦型アーキテクチャの構築が最も難しかったが、それにより唯一無二の体験が可能になった。

Q4. SnapのARユーザーは「自分がARを使っている」と意識している?

 意識していないケースが多い。しかし、それで良い。ARは「技術」ではなく「哲学。現実とデジタルが深く結びついている状態こそが目指す形。

Q5. 工業・製造分野など産業応用の可能性は?

 長期的には有望。まずは一般消費者向けのプラットフォームを構築し、その上でツールを流用する形で産業応用へ展開予定。

Q6. 価格 vs 機能、優先すべきは?

まずは「10倍の価値」を提供することが最優先。(スマホより優れた体験を提供)
価格は徐々に下がっていくが、まずは「使いたくなる魅力」が重要。

Q7. 「キラーコンテンツ」の育成方法は?

初期は社内アプリで限界を押し上げ、開発ツールにフィードバック。
外部開発者向けにはロケーションベースARやフリート管理ツールを先行公開。事業展開できる土台を提供中。

「Bringing AI and AR Into the Real World Through Spectacles」セッションへのR&D担当 藤原のまとめ

Evan氏は、Snapが人間中心のAR体験を長年にわたり追求してきた背景を話していました。
Spectaclesは、単なるガジェットではなく、人とコンピューターの関係を「自然で、共有可能な体験」へと進化させるためのカギと位置付けられています。
今後の戦略では、開発者のビジネス支援にも注力し、体験と収益化の両輪でARを普及させる方針というのはとても興味深くサービシンクとしても未来展望が見込めます。

Project Aura & More: XREAL’s Vision for the Present and Future of XR

ビジョン「空間コンピューティングをすべての人に」を掲げ、手の届く価格で提供。SnapやGoogleとパートナーシップを結びながら、軽量・高性能・毎日使えるARグラスを目指す。

  • XREAL S1:世界初のAR共処理チップ搭載グラス
  • XREAL XRA1:最も高性能な民生向けARプロセッサ
  • プロジェクト“Aura”発表:Snapdragonと協業した最新ハードウェア
  • XYXチップ(未発表の新SoC):25%高速、マルチタスク対応、Aura専用
  • ワイヤード式XRグラス(開発者向け版がまもなく提供開始)
    • SnapdragonベースのX1チップとXYXチップ搭載
    • 視野角95°以上(業界最大級の光学透過型FOV)
    • 片目57°、32:9のウルトラワイドモード対応
    • ジェスチャー/マルチモーダルAI統合を実現
    • AI×空間認識によるナビゲーション・マッピング・支援表示が可能
  • Android XRとの連携
    • GoogleはAndroid XRプラットフォームをXREALなどと共同開発
    • 開発者は既存のAndroidツール(Java, Kotlin, Unityなど)で開発可能
    • スマートフォン/タブレットアプリも動作、かつXR専用アプリも対応
    • ワン・プラットフォーム構想:VRヘッドセット〜軽量グラスまでをカバー

  • XREAL Air 1 Pro(新型軽量グラス)
    • 新開発の平面プリズム光学「X Prism」採用:従来比で44%小型化しつつ15%広視野角
    • 視野角57°、120Hzリフレッシュレート、700nits輝度
    • 税込$599(6月末までプレオーダー価格)/7月1日より$649で一般販売開始
    • BestBuy.comやAmazonで販売開始予定
  • XREAL Beam Pro(新型小型モジュールカメラ)
    • 3ミリ秒の遅延でグラス単体で6DoFトラッキング可能
    • モジュール式で脱着可能、真の一人称視点撮影が可能
    • $99、7月一般販売開始予定
  • XREAL Neo(AR向け新型バッテリーパック)
    • 10,000mAhのモバイルバッテリー+USB-Cビデオ出力
    • SwitchやSteam Deckなどの携帯ゲーム機との組み合わせを想定
    • 今夏発売予定(価格未定)

エンタープライズ向け新戦略「XREAL for Enterprise」

  •  主なポイント
    • 24時間体制の技術/顧客サポート
    • カスタムソリューション開発
    • 過去の機材のリプレース対応
  • 提供ラインアップ
    • XREAL Airシリーズ(Air 2, Air 2 Pro)
    • XR1, XR1 Pro
    • ハンドヘルドデバイス(例:XREAL Beam Pro)
    • 空間セキュリティ機器(X Pro B など)
  • スピリチュアル・プレデセッサー(前段開発向け推奨機材)
    • 今後出るProject Foraへの準備として、
    • 現行のXR1 Pro
    • ハンドヘルド端末を使った開発推奨

「Project Aura & More: XREAL’s Vision for the Present and Future of XR」セッションへのR&D担当 藤原のまとめ

XREALは、「現実の中で使えるAR」を本気で追求する企業として、軽量かつ高視野角の製品を次々と投入しています。
「Fora」や「Air 1 Pro」などの新製品群では、GoogleやSnapdragonとの協業によって、Android XR対応を前提にした開発環境も整備されています。
コンシューマーとエンタープライズの両面で「今すぐ使える・実用的なARグラス」を提供し、開発者支援にも力を入れた広範な戦略を展開しています。

Real Talk: A Heart to Heart with Google, Meta, and Snap

パネルテーマ:「AI時代におけるスマートグラスと空間コンピューティングの未来」

登壇者

  • Bruno Cendon Martin(Meta / Ray-Ban Meta責任者)
  • Star Simpson(Snap / Spectacles開発リード)
  • Hugo Swart(Google / Android XR責任者)

今この瞬間は「転換点」なのか?

Hugo(Google):10年以上前にGoogle Glassを出したが、当時は早すぎた。いまはAI・チップ性能・スマホとの連携が進み、ようやく準備が整った。スマートグラスとは、「日常的に身につける軽量なAR端末」であり、完全なHMDとは別枠。

Star(Snap):単なるチャットボットとしてのAIではなく、「空間理解をもつAI(Spatial Intelligence)」が本質。例:恐竜博物館で骨格を見ながら、AIに質問→骨の意味を深掘りして学習。AIと現実が融合する知的体験が真の変革。

Bruno(Meta):今回の波は確実に本物(hypeではない)。過去の波(汎用計算→家庭用PC→モバイル)に続く第4の波:空間+AI。AIが使えるようになった今、ARグラスがようやく意味を持つ。

10年後、ARグラスはどうなるか?

Bruno(Meta):ハードウェアの進化:当初は重くて非現実的だったが、今は日常的に使えるサイズへ。今後は「普段使いできる価値ある体験」の有無が鍵。自然な行動で使えるUX設計が必須。

Star(Snap):スマホのように「みんなが当たり前に使う」未来を見ている。スマートグラスは「人間らしい入力・出力を持つ自然なコンピューティングデバイス」。視点・音声・表示が個人に最適化された体験を生むのがポイント。

Hugo(Google):「人間にとって自然なI/O」を提供できるのがグラス。ただし、処理能力はクラウドやスマホに分散する必要あり。グラス単体ではなく「体に分散したコンピューティングシステム」の一部として発展していく。

開発者にどう届けるか?

Star(Snap):Spectaclesは既に開発者が使える状態にある。Snap Lens Studio、WebXRなど複数の開発基盤とAPIを提供中。「今日すぐに試せる」ことを強調。

Hugo(Google):Android XRでは、従来のAndroid開発者がそのままXR開発に入れるよう設計。Unity対応やOpenXRサポートもあり、段階的に3D空間へ移行可能。「2Dアプリを空間化する」という現実的な導入ステップを提供。

Bruno(Meta):Ray-Ban Metaは日常的な行動の延長として、自然なAR体験を提供。「見る/聴く/話す」といった人の行動に寄り添うUXを重視。すでに日常生活の中で使われており、ユーザーが気づかないうちにAR体験している。

クロージング・メッセージ

Snap:「今すぐグラスを試せる環境がある。今日から開発を始めよう」
Google:「Android開発者ならXRにもすぐ入れる。既存スキルを活かせる」
Meta:「AIやARが融合する空間体験こそが、次の大きな変化」

「Real Talk: A Heart to Heart with Google, Meta, and Snap」R&D担当藤原のまとめ

このパネルでは、AI×ARの現在地と10年後のビジョンが率直に語られました。各社の立場や製品は異なれど、共通しているのは「今は『本当の変革期』である」ということでした。ARグラスは人間らしいコンピューティングの主役になり得る。また開発者への支援と参加を通じて、エコシステム全体での成長が必要ということも強く強調されていました。

最後に強調されたのは、「未来はもう始まっている」というメッセージです。開発者も企業も今この瞬間から参加できる環境が整いつつあります。

Superhuman: How XR and AI Are Rewriting the Human Experience

現実とは何か?—XRとAIがもたらす人間と社会の変容

「現実とは何か?」
現実とは、五感で感じる世界以上のものであり、人それぞれに固有の定義を持つ。科学や感覚だけではなく、記憶、感情、文脈、テクノロジーによって構成される。特にXRの時代では、「現実」はより流動的で拡張された概念となる。

近年の技術進化で、人間の視覚・聴覚などをデバイスで補強・拡張することが当たり前になってきた。メガネや補聴器のようなツールも「サイボーグ的存在」と捉えれば、すでに我々は一部サイボーグである。XRデバイスは、人間の感覚の延長線として社会に融合していく。

講演者が手掛けるのは「グローバルなXRパーソナライゼーション」という領域。これは単に個人向けに最適化されたXR体験だけでなく、感情・記憶・価値観を反映した現実拡張を意味する。AIを用いて、その人にとって最適な「現実」が動的に提供される世界が来る。

過去の記憶、個人の感情的な体験、インタラクションは現実の一部として再構成されうる。AIは単なる情報処理ツールではなく、共感し、思い出し、関係性を築く存在となる。この点で、「物語としての現実」が構築される時代になる。

XRやAIの急速な普及は、“アクセスできる人”と“できない人”との格差を生む。特定の人々だけが「拡張現実での知識や能力」を持つことで、新たなデジタル階層が生まれるリスク。AIと人間の知性(ナチュラルインテリジェンス)の優劣、教育のあり方、情報への信頼性の問題にも言及。

AIが感覚や知覚に統合されれば、「グラスを外してください」と言っても意味がない世界になる。スマートフォンのように、XRグラスが「当たり前の装備」になる日も近い。教育現場も、「外付けの知識」ではなく「身体化された知識(embodied knowledge)」に向かう。

わずか数年前には何百万かかった映像制作が、今や1人でAIツールを使えば1日でできる。これは「人間の創造性の変化」だけでなく、過去から未来を予測する常識そのものが崩壊していることを示す。これまでの“過去ベースの線形進化”から、“非線形で跳躍的”な進化に移行している。

この技術変化は「全人類的な哲学的再構築」を求める。「テクノロジーはツールではなく、社会の構造そのものに浸透する存在」になる。Farviewという組織で「全ての人がAI技術にアクセスできる世界」を目指している。

「Superhuman: How XR and AI Are Rewriting the Human Experience」セッションへのR&D担当 藤原のまとめ

「現実とは何か?」という問いは、もはや哲学だけでなく、テクノロジー、倫理、教育、社会システムにまたがる統合的なテーマとなっている。XRやAIは、人間そのものの定義と価値観を問い直す存在であり、“私たちは何を現実と信じるのか”を再定義する時代が来ていることを感じる内容が語られていました。

以上、Day1のサマリーでした

サービシンクでは今回の「AWE USA2025」には開催期間全て滞在して視察をしてきます。明日以降も当社の担当がみてきたものについては速報をお届けいたします。

二日目の速報サマリーは下記でご覧いただけます。

  1. 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day1速報サマリー
  2. 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day2速報サマリー
  3. 「XR」の関する世界最大のエキスポ「AWE USA2025」視察 Day3速報サマリー

またのR&D活動はブログで定期的に公開していますので「ブログ−AR/VR/MR」カテゴリーをぜひご覧ください。

Webサイト・システムの
お悩みがある方は
お気軽にご相談ください

お問い合わせ 03-6380-6022(平日09:30~18:30)

出張またはWeb会議にて、貴社Webサイトの改善すべき点や
ご相談事項に無料で回答いたします。

無料相談・サイト診断 を詳しく見る

多くのお客様が気になる情報をまとめました、
こちらもご覧ください。