隔空打字来了:Meta智能眼镜终于把"魔法"变成现实

6次阅读

Meta Ray-Ban智能眼镜刚发布时,很多人觉得这就是个带摄像头的墨镜。但上周五,Meta用一次更新告诉市场:这玩意儿真正的杀伤力,现在才开始释放。

五个重磅功能同时落地,其中最炸裂的叫「神经腕带手写」——你不用掏出手机,不用点屏幕,只要在空中比划手势,消息就发出去了。

隔空写字,这事有多离谱?

技术原理不复杂:眼镜腿上有个传感器读取肌肉电信号,AI识别手部动作,然后把你脑子里的字「翻译」出来。Meta把它叫作EMG(肌电图)输入。

这东西今年1月小范围测试时,科技圈就炸过一轮。现在它终于对所有用户开放了,支持WhatsApp、Messenger、Instagram,以及原生iOS和Android短信应用。

用过的人形容:像在空气中弹钢琴,最开始需要几分钟「校准」,适应之后速度可以跟实体键盘媲美。

三个功能,每个都值得单独发一篇

神经腕带只是开胃菜。Meta这次同时放了三个大招:

第一,Display Recording——录视频时,眼镜屏幕里显示的内容、你看到的真实画面、环境里的声音,三个维度同时捕捉。这意味着什么?你可以边走边给朋友「直播」你眼镜里正在看的东西,素材自带第一人称视角,剪辑网站最爱的素材类型。

第二,步行导航覆盖全美以及伦敦、巴黎、罗马等主要国际城市。之前这个功能只有部分地区能用,现在相当于打了个全图补丁。

第三,Live Captions(实时字幕)登陆WhatsApp、Facebook Messenger和Instagram语音消息。对方说英语,你眼镜里实时显示中文字幕——不是手机端,是直接投射在镜片上。

开发者平台开放,生态开始筑高墙

对普通用户来说,这些功能已经够玩一阵。但Meta显然不满足于此。

这次更新还宣布:Meta Ray-Ban Display的开发者预览正式开放,开发者可以往眼镜里部署Web应用了。Meta开放了SDK,允许开发者调用摄像头、麦克风、屏幕显示和神经腕带接口。

首批支持的功能包括:

(1) 调用前置摄像头做AR交互应用
(2) 读取麦克风输入做实时语音转文字
(3) 控制镜片显示内容做信息叠加
(4) 接收神经腕带信号做手势游戏

Meta的打法和当年iPhone刚开放App Store时如出一辙——先堆功能,让设备值得买;再开放平台,让生态自己长出来。

硬件销量撑起底气

Ray-Ban Stories系列从2021年起步,前两年一直不温不火。直到2025年,带显示屏的Ray-Ban Meta正式开卖,销量开始起飞。Meta自己披露,光是2025年最后一个季度,Ray-Ban智能眼镜的出货量就突破了100万台。

这个数字在消费电子里不算大,但放在智能眼镜赛道,已经是统治级的存在。苹果的Vision Pro走的是高端路线,Rokid、XREAL这些玩家在专业场景里打转,而Meta靠的是「便宜+时尚+实用性」的三合一。

现在功能追上来之后,Ray-Ban Meta的护城河肉眼可见地在加深。

接下来会怎样?

Meta的策略很清楚:用成熟硬件+持续软件更新,让用户觉得「买了不亏」。一副 sunglasses 价格区间和普通雷朋差不多,但六个月后莫名其妙多了三个重磅功能——这种体验一旦形成口碑,竞品的压力会非常大。

智能眼镜这个品类,说了十年「元年」,真正的拐点可能就在此刻。

正文完
 0