目で見たことをそのままAIに聞けたらどうでしょう?今年4月、Ray-Ban Metaスマートグラスに、あなたが見ているものについて質問できるマルチモーダルAI機能が追加されます。
マルチモーダルAIの導入
来月、Ray-Ban Metaスマートグラスに、マルチモーダルAIが搭載され、ユーザーがメタAIに視覚情報に基づいた質問ができるようになります。「Hey Meta」と呼びかけ、「look and …」と付け加えることで、AIアシスタントは内蔵カメラを通してあなたが話題にしているものを「見る」ことができ、質問に答えます。
機能の可能性と限界
ニューヨーク・タイムズの4月の記事によると、メタAIのベータ版は英語、スペイン語、フランス語、ドイツ語の標識を翻訳できることがわかった一方で、果物のチェリモヤを識別できなかった例など、成功と失敗の両方の例も共有されました。
ベータテストの展開
2023年12月から、Ray-Ban MetaスマートグラスのマルチモーダルAIに関するベータテストが開始されました。視覚処理能力を備えたメタAIのベータ版について、XR愛好家のジャスミン・ウニザなど複数のYouTuberやインフルエンサーが体験談を投稿しています。
- Metaスマートグラスが4月にマルチモーダルAIを搭載。
- 内蔵カメラを活用して、ユーザーの見ているものについての質問に対応。
- ベータ版は複数言語の標識を翻訳可能だが、すべてを識別できるわけではない。
- 2023年12月からベータテストが開始され、インフルエンサーによる体験談が共有されている。
發佈留言