我试戴了 Meta AI 带屏眼镜:第一次觉得 AI 眼镜有戏了

爱范儿 2025-09-18 17:43

哇,整个这个眼镜戴上去的感觉太科幻了!

这是我戴上 Meta Ray-Ban Display 的第一反应。说实话,从看到去年 Meta Orion 样机的表现之后,我的期待值原本没有特别高,但真的把 Display 戴在头上,我突然觉得这个行业有戏



在 Meta Connect 2025 发布会上,这副售价 799 美元的「带屏智能眼镜」终于揭开面纱。它是 Meta 首款支持显示功能的智能眼镜,通过右眼的彩色光波导 HUD 和配套的 Neural Band 腕带,把「脸上的 AI」从概念变成了现实。


资讯配图


与 Orion 样机类似,Display 采用的显示技术是彩色光波导,这种仅依靠光线在载体内反复折射、将画面反射到镜片中间的技术是目前 AI 眼镜最主流的显示方式。但 Meta 实现了一项很特殊的指标:低至 2% 左右的漏光率。

也就是说 HUD 点亮时,你对面的人完全看不到光波导的反射和漏光,不像是今年早些时候谷歌推出的 XR 眼镜样机那样会有一个明显的反射区域:


资讯配图

@梦雅Myra 佩戴的 Display在类似的角度不会出现明显的屏幕漏光

即使我的朋友站在对面,在屏幕完全点亮时也完全察觉不到。只有从侧面角度,才能看到几排光波导屏幕导线的反光。

只不过,根据外媒 TheVerge 的上手体验,Meta 这块过于透明的屏幕也有一些弊端:由于和你对话的人完全看不到你在看什么东西,可能会感觉你有点心不在焉、视线没有集中在人身上。

至于实际的屏幕显示效果,Display 这块光波导屏幕亮度足足有 5000 尼特,搭配默认标配的光致变色镜片,在光线过强的户外镜片会变成墨镜片,可读性依然非常优秀。

单眼显示与神奇的 Neural Band

之前我一直担心单眼显示会不会很奇怪,但实际体验完全打消了这个顾虑。我已经连续使用了一个多小时,最明显的感受是它可以跟现实世界无缝融合

虽然 Display 仅有一块位于右侧的屏幕,但它的单眼显示效果与环境融合的很好,因为屏幕的位置和视场角(FOV)都设计的比较低,在直视的时候屏幕的显示区域会落在对方的胸口处,几乎和电影的字幕是完全一样的。

资讯配图

因为扎克伯格比对方矮,需要低头对话

这块 600×600 像素的屏幕虽然面积不大,但能做的事情跟手机很像,换句话说,整个显示界面的设计和逻辑完成度都非常高,几乎不会有使用时不知所措的情况。

比如我用它看 WhatsApp 和 Messenger 消息,整个对话流其实是可以完整显示出来的。通过手指上下滑动翻页,再用语音转文字回复的过程也非常流畅。我甚至在想,真的可以很长时间不用把手机从兜里掏出来了


资讯配图

而作为 Display 的主要操控方式,配套的 Neural Band 腕带更是改变了游戏规则。

虽然和苹果 Vision Pro 一样都可以通过手指手势操控,但 Display 并不依赖摄像头,而是借助腕带读取手腕的肌电信号(EMG)来识别的,也就是说你的手可以放在身体两侧、背在身后、甚至藏在口袋里,手势依然能被准确识别

Neural Band 的主要操作方式包括双击中指点亮屏幕、单击中指退出、单击食指确定、旋转手腕放大,以及用拇指在食指上滑动翻页等等。虽然需要一点学习时间,但是掌握难度并不高,灵敏度也是很优秀的。


资讯配图

而 Display 用来处理输入的方式则更加有趣。除了通过耳机上的 6 麦克风阵列做语音输入之外,你其实还可以戴着 Neural Band 直接在平面上写字,腕带会结合肌电信号和陀螺仪识别手写的字母,就像扎克伯格在发布会演示的这样:


资讯配图

扎克伯格在采访中透露了一个有趣的细节:他已经能用这个系统达到每分钟 30 个单词的打字速度,几乎一整天都在用眼镜收发消息。他的高管们甚至能分辨出哪些消息是用眼镜发的——比如那些长度更短、但是秒回的信息。

更重要的是,扎克伯格认为 Neural Band 的潜力远不止于此:

(虽然)我们发明 Neural Band 是为了配合眼镜使用,但我认为它最终可能成为一个独立的平台。未来,它不仅能通过思维实现个性化自动补全,还可能成为控制其他设备甚至智能家居的方式。

那些真正打动我的功能

如果说戴着 Neural Band 虚空写字像是变成了钢铁侠一样,那眼镜里的实时字幕功能让我感觉获得了超能力。

唤醒的方式很简单,说一句「Hey Meta, turn on live captions」,对面人口中的英语就会实时显示在屏幕上。在嘈杂环境里,Display 甚至能准确识别你正在看的那个人的声音,多个人同时说话也不会混淆。


资讯配图

并且得益于前面提到过的屏幕位置,戴着 Display 看实时字幕的方式,简直就是把眼前的现实变成了看电影。

虽然核心软件仍依赖手机连接,但这远不只是一个通知镜像。你可以发送文字、接听音视频电话、显示正在播放的音乐、获取逐向导航指引、查看相机取景,还能运行 Meta AI 识别眼前的物体。


资讯配图

发布会上演示的 Live AI 实时视觉识别场景

Meta 的 CTO Bosworth 强调:清晰的文字渲染是让 AI 变得有用的关键——如果 AI 只能语音回复,你获得的信息就有限。而当你提问后它能直接显示答案,这样不仅更直观,也更私密。

这种基于「你能看到结果」的确定感是普通版 Meta Ray-Ban 智能眼镜的纯语音交互无法给予的,并且在实际生活里,语音唤醒 AI 助手在很多场合是不太方便的,Display 语音/手势/视觉混合交互就不会有这种问题。


资讯配图

在体验 Display 的时候,我试着用 Meta 的 AI 功能识别了一幅画。Display 不只是语音回答,还在屏幕上显示了相关的信息卡片,信息密度相比纯语音交互(等 AI 慢慢念完)也更高一些。

这块小屏幕甚至可以用来预览相机画面,以及看视频——虽然 FOV 很小,但画面大小刚好,细节都能看清。如果朋友发来视频链接,你可以直接在眼镜上打开查看并快速回复,整个过程不用掏手机

总之 Meta Ray-Ban Display 体验下来,我觉得这副眼镜的核心价值有三点:

这可能真的是下一个 iPhone 时刻

扎克伯格在访谈中的判断很明确:

眼镜将是下一个计算平台。这是唯一能让 AI 看到你所见、听到你所听、全天候与你对话的设备。

全球有 10-20 亿人日常佩戴眼镜。五到七年后,这些眼镜中的大部分会不会都变成某种形式的 AI 眼镜?扎克伯格说:我觉得这就像 iPhone 出现时,大家都还在用翻盖手机,但变成智能手机只是时间问题


资讯配图

Meta 瞄准的是「优化主义者」和「追求生产力的人」。虽然初期产量只有几十万副,但 Bosworth 预测「我们生产多少就能卖多少」。扎克伯格也暗示,真正的利润不会来自硬件本身,而是「来自人们长期使用 AI 和其他服务」。

体验结束后,我最大的感受是:Display 不再是概念产品或开发者玩具,而是真正可以日常使用的工具

虽然 799 美元不算便宜(一台 iPhone 17 也是这个价),20 度的 FOV 和 600×600 的屏幕也不算大,但这些都不妨碍它成为我用过最接近理想的智能眼镜。


资讯配图

我觉得 Meta Ray-Ban Display 的目标很明确——减少掏出手机的次数,把那些快速查看和回复的操作都通过眼镜完成。从这个角度说,它确实做到了。

或许正如扎克伯格所说,这就像智能手机替代功能机的时刻。智能眼镜的技术拐点已经到来,只是还未完全普及。而 Meta Ray-Ban Display,可能就是这场变革的开始,可能就是下一个 iPhone 时刻。



文|肖钦鹏,马扶摇

特别鸣谢|@梦雅Myra

资讯配图

我们正在招募伙伴

📮 简历投递邮箱
hr@ifanr.com
✉️ 邮件标题
「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
更多岗位信息请点击这里🔗
资讯配图

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
【报告】Agent专题三:AI行业专题报告:国产Agent不断演进,通用协议推进系统性应用(附PDF下载)
AI是不是一场世纪大泡沫,顶级分析师发布「AI泡沫检测器」,5个读数一看就懂
华为AI芯片计划全盘托出!全球最强超节点+超级集群,未来2年全面领先
iPhone Air,弯了
网购选择困难有救了?实测淘宝AI搜索,治好了我的决策内耗
华为狂飙!全球最强AI超节点今年发布,昇腾950/960/970芯片“下饺子”…
智能眼镜、头显内容平台,Meta Connect 大会亮点汇总 | 区势·AI&数码
【教育】美国第一夫人梅拉尼娅谈教育领域的AI:“机器人时代已然来临”
iPhone Air和iPhone 17 Pro还未上市,就出现问题了
60Hz的连续推理效率!上海 AI Lab开源端到端双系统导航大模型InternVLA·N1
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号