Metaの発表から読むAR/MRを表現するスマートグラスの未来予想
こんにちは、サービシンクの名村です。サービシンクでは2024年から「AR(拡張現実)」「MR(複合現実)」の可能性を探るためにR&Dを開始しました。その中で中核となってくるのはハードウェア側の問題です。
現在サービシンクではAR/MRデバイスとして2024年3月に「Apple Vision Pro(以下AVP)」を購入しました。またそれ以外にも2018年ごろよりスマートグラスとして「メガネ型デバイス」を多数所有して研究を続けてきました。
サービシンクでは私が2018年に書いたブログ「サービシンクの考える「スマートフォンの終焉と次のデジタル体験」の未来予測」でも示唆した通り、AR/MRデバイスはAVPやMeta Questのようなヘッドマウントディスプレイ型ではなく、メガネ型になってこそ初めて意味をなすと考えています。そのような中で現在最先端にいるのはMeta社が現在プロトタイプとして情報をだしている「Meta Orion」です。
まだまだメガネとしては大味ですが、メガネ型で透過型のレンズを利用してAR/MRを表現しています。これが2027年ごろには発売になるような話題がでています。そのような中COMMUNICATION TODAYでこんなニュースがでました。
Meta’s Ray-Ban smart glasses will replace smartphones
Meta’s latest Ray-Ban smart glasses are no longer just about taking photos or playing music. With new features like live translation, object recognition, and an always-on AI assistant, Meta CEO Mark Zuckerberg says these glasses are being built to replace your smartphone. You can now take calls, listen to podcasts, get real-time answers, or translate signs in another language — all through a pair of glasses.・・・
COMMUNICATION TODAY
全体としてMetaが別途だしているスマートグラスの「Meta Ray-Ban」の次世代版を通してスマートグラスの今後について記載をしています。下記に日本語訳をしたものを掲載させていただきたいと思います。
企業ニュースMetaのRay-Banスマートグラスがスマートフォンに取って代わる
ライブ翻訳、物体認識、常時オンのAIアシスタントといった新機能により、MetaのCEOマーク・ザッカーバーグは、このグラスがスマートフォンに取って代わるように設計されていると述べています。通話をしたり、ポッドキャストを聞いたり、リアルタイムの答えを得たり、別の言語の標識を翻訳したり——すべてをメガネだけで実行できます。
MetaのRay-Banスマートグラスとは?
MetaのRay-Banスマートグラスは、クラシックなメガネのデザインに内蔵テクノロジーを融合させたウェアラブルデバイスです。カメラ、スピーカー、マイク、そしてAI統合機能を備えています。スマートフォンを取り出さずにコンテンツを撮影したり、友人と会話したり、デジタルサービスとやり取りするハンズフリーな手段を提供することが目的です。
マーク・ザッカーバーグ氏の発言ザッカーバーグは、スマートグラスが近い将来、私たちがスマートフォンで行っている主要な機能をすべて実行できるようになると語りました。それには、メッセージの送受信、写真撮影、ウェブ検索、AIの利用などが含まれます。彼は、スマホを手に持つよりもグラスの方が自然で、ユーザーが顔を上げて両手を自由に使えると説明しています。
スマートグラスは単に機能を追加するだけではなく、テクノロジーの使い方そのものを変える可能性がある、と彼は述べています。タップやスクロールではなく、音声、映像、ジェスチャーによる操作が主流になるとしています。
スマートフォンに代わる機能
Metaのスマートグラスの最新バージョンには、すでに強力な機能が搭載されています。
- 音声アシスタント:Meta AIに話しかけてリアルタイムの答えを得る
- 写真・動画撮影:声で操作して撮影
- ライブ配信:見ている景色をInstagramやFacebookに直接共有
- 音楽・ポッドキャスト再生:イヤホン不要で視聴可能
- 通話:内蔵マイクとスピーカーで通話可能
Metaは日常のスマホ使用を完全に置き換えるさらなる機能の追加に取り組んでいます。
なぜスマートグラスがスマホを代替し得るのか
- ハンズフリー:声だけでアプリやサービスを操作
- 画面不要:画面ではなく視界内に情報を表示
- 高速アクセス:瞬時に質問したり撮影したりできる
- AIの支援:視界にあるものをもとに回答・翻訳・リマインダーを提供
スマートグラス使用の利点
- より自然な動作:画面を見る必要がない
- マルチタスクに最適:歩きながら、料理しながらでも使用可能
- スクリーン時間の削減:常時スクロールからの解放
- 即時対応:素早く答えや写真を得られる
直面する課題
- バッテリー寿命:一日中充電せずに使うのはまだ困難
- プライバシー:内蔵カメラやマイクによる懸念
- コスト:高性能なスマートグラスは依然として高価
- 快適性とデザイン:全員が顔にデバイスを装着することに抵抗がないわけではない
将来への意味
もしMetaのビジョンが現実になれば、スマートグラスは現在のスマートフォンと同じくらい一般的になるかもしれません。AppleやGoogleを含む多くの企業も同様の技術に取り組んでいますが、MetaはAI、AR、ウェアラブルを一体化した使いやすい製品の先陣を切っています。
スマホの使用がすぐに終わるわけではありませんが、ちょっとした操作や音声コマンド、外出先でのコンテンツ利用においては、まず最初にスマートグラスを使う時代が来る可能性があります。クリエイター、ビジネスパーソン、迅速なコミュニケーションを必要とする人々にとって、これはゲームチェンジャーになるかもしれません。
COMMUNICATION TODAY
このようにザッカーバーグは今後スマートフォンで実施していることがスマートグラスに置き換わっていくと考えているようです。サービシンクのAR/MRにおけるR&D活動としてもその前提は「今後Webを表現する環境は空間になっていく」という仮定を元にして研究を行っています。
昨年AVP用に開発をした「空間に製品マニュアルを浮かべる」アプリも最終的にはAVP用ではなく、AR/MRの閲覧環境がメガネ型デバイスとしてスマホ同等にひろまった時を想定して作っています。そのため、現時点でAVPで広く使われるものは開発検討時点で全て弾かれています。
またザッカーバーグが課題にあげていることはすでに認識をしています。しかしながら、2024年のCES2024ではLGとサムスンが「透明ディスプレイのテレビ」を投入しています。また電池の問題では2024年に中国が「原子力電池」(この響きだとすごい怖いですが…)を発表しています。どちらも一度ハードウェアになればその後は改善改善…の世界になるので、恐らく「メガネ型のAR/MRデバイス」が日本円で25万円程度、つまり2025年時点のスマートフォンと同程度の金額で実用的なものが生まれるのは時間の問題と考えています。
サービシンクでは先ほども記載した通り、「Webの表現は空間になる」という仮説の元、今後もR&Dの中で、「空間でWebサイトを表現する」研究を続け、近い将来事業化を考えています。これまでサービシンクが培ってきた様々なサイトデザイン、UI設計、UXデザインを空間で利用する上で求められる新しいものに昇華していき、「AR・MR✕Webサイト」のリーディングカンパニーになっていきたいと考えています。
今後もサービシンクでは積極的に「AR/MR✕Web」に関わる情報を提供していきたいと思います。
Webサイト・システムの
お悩みがある方は
お気軽にご相談ください
出張またはWeb会議にて、貴社Webサイトの改善すべき点や
ご相談事項に無料で回答いたします。