Ray-Ban Metaがついに今年中に日本上陸決定! 本気のAIグラス登場秒読みへ【Podcastもぐラジオ要約版】 – Mogura VR News

XR/メタバース/VTuber専門メディア「MoguraVR」は毎週、Podcast「もぐラジオ」を配信中。「テック・コンテンツ業界の最前線を掘る」というコンセプトのもと、すんくぼ(MoguraVR編集長)とゆりいか(MoguraVR副編集長)が業界の注目トピックを語ります。

今回取り上げる注目トピックは、年内に行われると発表されたRay-Ban Metaシリーズの日本発売。同時に今年の夏には日本語を含むリアルタイム翻訳機能の提供も予定されています。さらに4月8日にはMetaの次世代AI「Muse Spark」が発表され、AIグラスの体験が大きく変わろうとしています。今回のもぐラジオでは、Ray-Ban Metaの歴史や日本市場での課題、Google・Evenなど競合プレイヤーの動向まで、AIグラスの最新事情を語り合いました。

(※本記事はポッドキャスト「もぐラジオ」の対談内容を要約・編集したものです)

Ray-Ban Meta ついに日本上陸

ゆりいか:203回のテーマは「Ray-Ban Metaがついに今年中に日本上陸決定!本気のAIグラス登場秒読みへ」です。そもそも今まさにすんくぼさんがつけているメガネのことに触れないといけないと思うんですが。

すんくぼ:そうですね、あまりにも当たり前になってしまっていて特別なことではなくなってきているんですけど。今つけているのはOakley Metaです。去年からずっとつけています。

ゆりいか:ようやく来ますね。Ray-Ban MetaシリーズやOakley MetaシリーズといったMetaが手がけるAIグラスが、今年中に日本でも登場するという告知がされました。

すんくぼ:正直、永遠に日本には出さないんじゃないかと思っていましたよ。日本で出る気配が本当になくて、なおかつMeta AIも日本では使えない状態でしたから。日本以外ではグローバルでガンガン売り始めているのに、日本での発売の話がずっとなくて。それでも見送られることもあるのかなとは思っていたんですが、いよいよ発売ということで。

ゆりいか:しかも今年の夏には日本語を含む翻訳機能も提供される予定ということなので、売り出されてすぐ日本語が全然使えないという状態にはならなそうですね。

すんくぼ:さすがにそうですよね。このデバイスは音声操作が主なので「ヘイMeta」と呼びかける形になるんですが、それが日本語でできないとSiriやGoogleアシスタントと同様、まったく使い物にならなくなってしまいます。言語対応がセットで来るのは当然で、しかもリアルタイム翻訳がこのデバイスの重要な機能の1つでもあります。このデバイスでできる体験の多くがAIに依存しているので、そのAIがちゃんと日本語対応した状態で入ってくるということですね。ある意味、同時発表のような形です。

Ray-Ban Metaの歴史を振り返る

ゆりいか:ここでRay-Ban Metaの歴史を少し紹介しておきます。最初のモデルが出たのは2021年です。当時はRay-Ban MetaではなくRay-Ban Storiesという名称でした。この時はまだAI機能は入っておらず、どちらかというとメガネ型カメラという使われ方が主でした。

すんくぼ:カメラとスピーカーがついたサングラスみたいな感じでしたね。

ゆりいか:正直あまり売れていなかった印象もあります。そこから2年後の2023年に、Ray-Ban Metaという名称で第2世代が登場します。カメラ性能やスピーカーがハードウェアとして大幅にアップデートされ、さらにAI機能としてMeta AIが追加されました。ライブ配信への対応も加わりました。

すんくぼ:自分もRay-Ban Storiesを持っていたんですが、正直ほとんど使わなかったんです。Ray-Ban Metaを使うようになってから活用頻度が上がったんですが、その違いはカメラで撮れた写真や動画がスマホで見ても普通に綺麗だったことです。解像度が低くてしょぼい写真にしかならなければ、スマホで撮った方がいいとなってしまう。でもある程度ハードウェア性能が上がったことで、わざわざスマホで撮らなくてもメガネで代替できると思えるラインまで進化していた。そこにライブ配信もできるとなって、受け入れられ始めたというところがあります。

ゆりいか:この第2世代が発売されて以降の販売台数を見ると、2024年は累計で数百万台規模で売れて、2025年はその勢いが続いているとされていました。そして2025年9月に第2世代のRay-Ban Metaが発表されます。さらに2025年5月にはOakley Metaが発売され、スポーツ向けゴーグルタイプのOakley Meta vanguardも登場しています。

すんくぼ:これはすごいですよね。アメリカのサングラス専門店では、普通のメガネと同じ棚に置かれたり、店の1番目立つショーウィンドウに並んでいたりします。ブランドとして売ることに成功した結果だと思いますね。

ゆりいか:セレブを使った広告展開も力が入っていますよね。Metaのサイトを見るとすごくかっこいいんです。VRを売るのとはまったく違う売り方です。

すんくぼ:確かにスーパーボウルの広告で俳優2人を起用していましたし、K-POPアーティストを使ったグローバルキャンペーンもやっていますね。Metaだけでなくルックスオティカというブランドも入っているので、「新しいガジェットが出た」ではなく「新しいメガネが出た」という見せ方ができているんだと思います。いい意味でガジェット臭さがなくて、ファッショナブルに普通に使えるということを推してますよね。

実際に使ってみると何が便利?

ゆりいか:すんくぼさんに聞いておきたかったんですが、実際に何が便利なんでしょうか。カメラが便利という話は出ましたが、AI機能は使いますか?

すんくぼ:ほぼカメラですね。あとは意外とスピーカーとマイクも使います。ハンズフリーで通話したり音楽を聴いたりという使い方は、オープンイヤーのイヤホンと変わらないので。子どもの送り迎えをしている時にパッと通話するとか、音楽やポッドキャストを聴くという場面でも使っています。でも1番多いのは、スマホを取り出して写真を撮るのが面倒という場面でのカメラです。特に今子育て中で、両手が離せないけれど撮っておきたいという場面で、メガネをつけていればすぐ撮れるので。基本的に土日はずっとこれをつけています。平日はEvenのグラスをずっとつけているというのが最近の生活になっています。

ゆりいか:スポーツシーンでも、走っている時に周りの風景を撮りたくてもスマホを取り出せない場面がありますよね。そういう場面でGoProをつけてやるような感覚で使えるというのは、カメラニーズとして大きいと思います。Ray-Ban Metaのサイトを見てもカメラをすごく推しているんですよね。AIの話はスクロールした後に出てくる感じです。

すんくぼ:そうなんですよね。AI機能はまだ日本では使えない状態なので。Facebookのウェブアプリを開くと出てくるMeta AIはありますが、このAIグラス上ではMeta AIが使えないんです。かろうじて使えるのが、Googleアシスタントのように「今の天気を教えて」「今何時?」といった程度です。しかも英語でないと答えてくれないので。

ゆりいか:それだとほとんど使わないですよね。AI機能が日本語でちゃんと使えるようになることが、このデバイスの体験として本当に重要なんだと思います。

プライバシーや社会的リスクの問題

ゆりいか:便利な反面、海外ではカメラ機能をめぐるトラブルや訴訟の動きもあります。日本でよく言われるのが盗撮になるのでは、という話ですね。駅などで使われたりとか、撮影禁止の場所でスマホだと注意されるのにこれならバレないという使われ方も出てくるかもしれない。ただ北米で今問題になっているのは少し別の話で、撮影したデータをMetaのデバイスということもあってクラウド側で処理してAIに食わせているのではないかという点です。

すんくぼ:プライバシーのデータをAIに食わせているんじゃないかということですね。

ゆりいか:このグラスがあまりにも便利なので、みんないろんなものを撮っていると。プライベートな部屋の様子や性的なものまで撮影してしまっていて、そのデータが勝手にAIに食わせられているのではという話になっているわけです。これはMetaがずっとデータ管理の問題で叩かれ続けてきたこととも一致しています。

すんくぼ:Facebookのデータ管理の問題と一貫していますね。

ゆりいか:日本に入ってきた時には盗撮の問題が特に取り沙汰されるかもしれません。また別の話として、海外では試験のカンニングに使われているのではという事例も報告されています。このメガネにいろんな機能が入ることで今まで想定していなかった問題が起きてくる可能性があり、そういったリスクの種があちこちに埋まっていると思います。

気になる価格は? 日本ならではの課題

ゆりいか:そういったリスクもある中で日本に入ってくるということですが、気になるのが価格です。Metaのサイトで一瞬日本円の値段が表示されたようなんですが、今は消えてしまって確認できない状態です。

すんくぼ:ドルベースだと、最初のRay-Ban Metaは249ドルか299ドルと、Quest 3Sと同じくらいの値段でした。今の第2世代は329ドルになっていると思います。ただ円安の状況なので、ちら見せされた金額では8万円程度という数字が出ていたようです。350ドルだとして160円をかけると5万円を超えてきますし、そこに関税なども乗ると2〜3万円では到底買えないですよね。

ゆりいか:そうですね。普通のRay-Banのサングラスが日本では3万円程度で買えるとすると、AIグラスが8万円以上となると、出てきたけど結局買えないというがっかり感になる可能性も少しありますね。

すんくぼ:Quest VRでも起きたことで、アメリカで299ドルで売っているものが日本では値段が上振れてしまうという。同じように世界で売れまくっているからといって日本でも同様に売れるかは分からないと思っています。

ゆりいか:そうですね。もう1つ気になるのが、日本人のサングラス文化の問題です。

すんくぼ:年々増えてきている感じはありますが、やはり欧米人ほどサングラスをかけないですよね。Ray-Banやオークリーはサングラスやスポーツアイウェアのブランドなので、普通のメガネをRay-Banにしようとはなかなかならないと思うんです。

ゆりいか:自分の顔に合わせてサングラスをかけると怖い人みたいになってしまうかなという感覚も正直あって。

すんくぼ:日本では目と目が合わないと怖く見えてしまうとか、サングラスを着用したままコミュニケーションを取ることへの抵抗感みたいなものもあると思うんです。そういうサングラスのイメージの問題もありそうです。

ゆりいか:そうですね。あとMetaからすべてのデバイスが日本に来る中で、唯一来ないものがあります。Meta Ray-Ban Displayですね。

すんくぼ:片目にディスプレイが表示されるモデルですね。これは日本には来ないと。以前もぐラジオで購入後にやりましたが、リストバンドのフィッティングをメガネ屋でやらなきゃいけないという話があって、それを日本でマニュアル通りにやるとなるとかなりの手間ですね。

ゆりいか:そうですね。ガジェット好きには1番面白いのがMeta Ray-Ban Displayだと思うんですが、地図表示やリアルタイム翻訳の字幕表示もディスプレイがあってこそですし、来たらいいなとは思うんですがまだ来ないと。

次世代AI「Muse Spark」とは

ゆりいか:Metaの話は最近もぐラジオでも頻繁に取り上げていますが、どちらかというとネガティブなニュースが多くて、XR部門のレイオフやゲームスタジオの閉鎖といった話でした。AI事業に注力するという方針の中、今回のテーマであるAIグラスはまさにAI事業の側なので、注力される方ですね。

すんくぼ:そうですね。

ゆりいか:去年の販売台数は700万台で、目標も今年は1000万台から2000万台に引き上げているという話もあります。そういった流れの中で、ちょうどいいタイミングで大きな話題が出てきました。AIグラスを語る時にはグラスそのものの話と、より重要なAIの話があります。4月8日に発表された新世代モデルのMuse Sparkです。

すんくぼ:LlamaシリーズからMuse Sparkへ新しく移行が始まっているという感じですね。いずれも外から見た時の名前はMeta AIです。つまり、Meta AIという看板はそのままで、中身のAIが入れ替わったという状態です。これまでのLlamaというモデルは、MetaでずっとAI研究をしてきたヤン・ルカンという研究者が率いていたチームが作っていたものです。オープンソースで公開していた点が特徴的で、OpenAIもClaudeもオープンにしていない時期に貴重な存在でした。ただ性能評価で他のプレイヤーに追いつけなくなってしまっていました。

そのチームはもうヤン・ルカンも辞めていて、縮小もしくはなくなっている状態です。一方でザッカーバーグが集中的に人材を集めて作ったMeta Superintelligence Labsというチームがあります。ここにアンドリュー・エン氏をヘッドに据えて会社ごと買収し、新しいAIモデルを作っていました。それがMuse Sparkです。これまでのMetaのAIとは異なる中身になります。性能面でもGeminiやClaudeに匹敵したり超えたりする評価が出てきていて、MetaがAIレースに戻ってきたという状況です。

すんくぼ:Muse Sparkの特徴としては、まず視覚に特化したマルチモーダルという点があります。つまりAIグラスに搭載することを想定して、省電力で処理できるように設計されています。さらにエージェントとしての動きで複数タスクを並列処理できる点もあります。最近のAIはコンテキストの話になってきていますよね。ユーザーがどんな人でどんな情報に触れているかをAIが理解して、それに沿った答えを返せるかどうかです。AIがメモリとしてコンテキストを蓄えていき、そこから答えを導き出すというところが重要になっていて、Muse Sparkはそういった部分にも対応しています。今までのMetaとは全く違うAIになります。

ゆりいか:これがAIグラスに入ってくることになりそうですね。

すんくぼ:そうです。Muse Sparkが最も生かされるのはAIグラスに乗せた時だというのがおそらくMetaの言いたいことです。AIグラスが撮影したデータを元に記憶を蓄えて、それを元にユーザーの質問に答えたり案内したりができるようになっていくということです。これまでのアシスタント程度の使い心地から大きく変わっていくはずです。「はず」と言っているのはまだ試したことがないからですが。

一応補足しておくと、今の時点ではAIグラスでMuse Sparkを使うことはできません。ただAIグラスを使うために必要なスマホアプリがMeta AIというアプリで、そのアプリのメインのチャット部分はMuse Sparkに切り替わっています。FacebookやMessengerに入っているMeta AIもLlamaからMuse Sparkへ順次移行しているといわれています。チャットで色々と試してみると、まだ事実誤認がある場面もあって完璧ではないんですが、AIグラスに乗せて体験した時に本当の性能が発揮されるということだと思います。

ゆりいか:日本に来た時にちゃんと使えるのかは調べなきゃいけないですね。

ゆりいか:本当にそうですね。Ray-Ban Metaが日本に来るという話とMuse Sparkという次世代AIが発表されたという話は連動しています。今までのMeta AIのままでは、日本語対応しましたと言っただけでカメラ中心の使われ方に留まっていたと思います。Metaがやりたいのはカメラ付きメガネを売ることではなくAIグラスを売ることなので、グラスを売りながらAIも売らなきゃいけない。そのために高性能なAIが必要で、それがMuse Sparkという形でようやく出てきたということです。SiriやGoogleアシスタントが出た最初期から続いてきた、話しかけると「よく聞き取れなかったのでもう1回言ってください」という問題がある限り、人はこれを信用しないと思うんです。それを突破できるかどうかというのが、音声操作で動くAIグラスにとって本当に大事な部分だと思います。

Google対Meta、そして新たなプレイヤーたち

ゆりいか:なるほど。そういう意味ではMetaはハードウェアを早めに出して売りまくって、AIがようやくMuse Sparkで追いついてきたということですね。

すんくぼ:他にどういうプレイヤーがいるかというと、やはりGoogleですよね。Geminiを爆速で進化させ続けているGoogleが、Android XRという名前でAIグラスをメガネメーカーと作っています。GeminiがAIグラスに乗るという話がありますが、まだ世の中には出てきていません。ただその予兆がじわじわと来ていて、最近Google HomeにGeminiが入ったんです。

ゆりいか:おお、すごい!

すんくぼ:「OK Google」と言うとGeminiが答えてくれるようになりました。昔あった曲名をちゃんと言わないとかけてくれない問題が解決し始めていて、1週間の予定を教えてと言うとカレンダーと連携して教えてくれるようになっています。GoogleのGeminiが入ったAIグラスはおそらくこうなるんだろうなと思って、家にいる限りはもう体験として実現しているという感じです。ベースのGoogleのAIグラスを体験したい方はGoogle HomeにGeminiを入れればできるということですね。

目はないので見ているものは教えてくれませんが。さらにGeminiにパーソナルインテリジェンスという機能が入りました。これはGoogleのアカウントで使っている各サービスの履歴やデータがGeminiに統合されるというもので、具体的にはGoogleフォト、YouTubeの視聴履歴、Google Home、YouTube MusicやSpotifyなどが連携されます。そして1番大きいのが検索履歴の統合です。

ゆりいか:Googleのアカウントを使って検索してきた履歴が入ってしまうということですね。GmailやGoogleの検索履歴となると、人によっては10年15年分くらいになりますよね。

すんくぼ:それが統合されたんです。早速試してみたんですが、今まで毎回背景説明や自分のニーズを入力しないといけなかったのが、家の近くの何屋かを教えてと言うだけでちゃんと教えてくれるようになって。家と職場の動線を踏まえて、帰り道でちょうどいいお店はどこかということまで教えてくれます。

ゆりいか:それはすごいけど、ちょっと怖いですね。本当に家の様子をAIが常に見ているみたいになってきていますね。

すんくぼ:そうなんです。Geminiにはまだエージェント機能が入っていないので、たとえばAmazonで何か買っておいてという指示はまだできません。ただエージェントが来ると言われていて、そうなった時に検索履歴まで連携されているGeminiがどれだけ思い通りに動いてくれるか、段違いになるかもしれないという予感がしています。

ゆりいか:検索や通販のログまで持っていれば、依頼した結果が自分の意図と全然違うという事態も減るかもしれないですね。

すんくぼ:そうですね。それがAndroid XRのAIグラスに乗ってきたら、もうスマホやPCを開かずにメガネで全部済んでしまうという世界が来るかもしれないです。

ゆりいか:やばい世界が来ますね。

すんくぼ:AIグラスというのはハードウェアだけの話ではなくて、AI性能、マルチモーダル、エージェント機能、そしてエコシステムという3つの要素で見る必要があります。エコシステムというのはサードパーティーがアプリや機能を作って広げていくことで、iPhoneがここまで普及したのもアプリストアというエコシステムがあったからこそです。ハードウェアとAIの2つは揃ってきた感がありますが、エコシステムはまだまだです。AIグラス向けのアプリを外部が作って配布するという仕組みがまだほとんどできていません。

エコシステムで1番動きが早いのはEven Realitiesです。スマホアプリの中にアプリ内ストアを作る形で、開発者に自由にAIと接続させてアプリを作ってもらうということを早くから進めています。一方MetaはRay-Ban Meta向けのアプリは作れるようになってきましたが、申請が必要だったりできる機能が限られていたりと半分クローズドな状態です。Googleはデバイスがまだないのでアプリもオープンにはなっていません。

ゆりいか:そういう意味ではEvenがここで1歩前に出ているというのが面白いですね。

すんくぼ:そうなんですよね。ただGoogleの動きを見ていると、Googleが出してきたものだけでものすごく便利になってしまっているという側面もあって。エコシステムがAIグラスではスマホほど重要にならないのかもしれないとも感じています。既存のスマホアプリでできることがAIグラス側でも少しずつ使えるようになれば十分という感覚もあります。

MetaはAI面ではMuse Sparkで巻き返そうとしていますが、データという意味ではFacebook、Instagram、WhatsAppで10億人以上のデータを持っています。自分はあまりMetaのサービスに漬かっていないのでGoogleに可能性を感じていますが、Metaのソーシャルエコシステムにどっぷりな人にとってはMuse SparkがFacebookやInstagramのデータと連携することで、コンテキストをかなり読んでくれる可能性があります。

ゆりいか:SNSの人間関係や投稿データを持っているということですね。

すんくぼ:XのAIであるGrokも同じ方向性を狙っていると思います。Xの投稿全体がデータベースになっているので、Grokを搭載したグラスというものが出てきたら面白いとは思いますが、今のところイーロン・マスクはメガネをやっていないので、それはひとまず置いておいて。Googleは来たらものすごく強いんですが、まだ来ていないというのがずっとある問題で。2026年のどこかで出てきてMetaと激突していくのかなと。

ゆりいか:GoogleのAIグラスはいつ出るんでしょうかというところですね。

すんくぼ:MetaとGoogleだけかというと、AIを持っていない会社もAIと繋がれば戦えるという動きも出てきています。Appleは自前でのLLM開発は諦めて、ChatGPTやGeminiと繋ぐ形になっています。EvenもRokidも設定で使うAIを選べるようになってきていて、どのAIとも連携できるという発想の会社が増えています。AIを持っている会社が市場を全部制圧できるわけではないという状況で、まだまだ混沌としています。

法人向けの課題と日本独自の動き

すんくぼ:2026年前半になって日本にもいろんなデバイスが入ってくる状況になってきました。Ray-Ban Metaが来ることで、日本においてどう受け入れられるかというのも大きなポイントです。先ほどの社会的なリスクも含めて、グラス型デバイスでは社会受容性がとても大事です。

ゆりいか:そうですね。

すんくぼ:もう1つ、企業がスマートグラスを業務で使うという話が出てきています。これは消費者向けの話とはまた別の軸です。業務には機密情報があるので、MetaのAIにそのデータが流れてしまったら大問題になります。なので法人向けには専用のグラスが作られたり、専用アプリを開発してクラウドに接続せずオンデバイスで処理するという形をとったりということが重要になってきます。どういったユースケースが業務で使えるかという開拓が重要なフェーズになっています。スマートグラスを今年取り組まないとまずいという声もあちこちから聞こえてきていて、相談を受けることも増えてきています。

実際に仕事で使うという話で、もぐらでも最近記事を出しましたが、EvenのCEOへのインタビューがありました。ライターさんと2人で行ったんですが、合同記者会見で10人ほどの日本の記者がほぼ全員Even G2をつけていて、CEO本人もつけていました。質問は日本語、回答は英語で、全員が字幕でやり取りするという光景でした。

ゆりいか:すごい不思議な光景ですね。

すんくぼ:不思議でしたが、1番大事だと思ったのはその場が成り立っていたことです。1時間半ほどのインタビューで何十もの質問が出て、ほぼエラーなく全員が自分の母国語でインタビューができていました。最近はAirPodsにもリアルタイム翻訳が入っていますし、こちらがメガネで向こうがAirPodsでも成り立ちます。いろんな形でこれが実現してしまうんだなと思った瞬間、結構いい未来が見えました。リアルタイム字幕だけでもすごく大きな価値だと感じましたし、そこにさらにいろんな機能やコンテキスト読み込みが加わっていったら、スマートグラス全体がまだまだ卵の状態なんだなと思います。リアルタイム字幕というのはデフォルト機能ですからね。

ゆりいか:本当に便利ですよね。あと日本からもSABERAというブランドが立ち上がりました。

すんくぼ:jig.jpというところが企画している、鯖江ブランドの日本初AIスマートメガネですね。鯖江にあるボストンクラブというメガネメーカーと、回路などのスマート部分はCellidという日本のグラスのスタートアップが担うという。日本からも出てくるとなると、いよいよ面白いことになりそうですね。

ゆりいか:そうですね。製造地がどこかという点は法人向けにも関係してくるので大事な要素です。このSABERAについてもできればレビューさせてもらおうと思っています。

ゆりいか:最近うちのメディアがメガネ屋さんみたいになってきていますが、これはVRやARにも繋がっている技術なので、切り離して語れないですね。

もぐら関連記事