新质观察|智能眼镜能否引爆移动终端革命?
2007年6月29日,初代iPhone在美国正式发售,从此揭开“掌上革命”的大幕。智能手机作为终端之王,几乎主宰了整个移动互联网时代。
弹指18年,人类已站在人工智能时代的路口,下一个比肩智能手机的移动终端会是什么?
毫无疑问,将是智能眼镜。
智能眼镜在传统眼镜的结构上,融合了人工智能、传感器、显示等技术,通过内置芯片、摄像头、麦克风等硬件,实现拍照录像、语音交互、信息提醒、AR显示、导航翻译等智能应用,还可以跟智能手机、智能汽车等其他终端联动,兼顾了舒适性与功能性,成为人工智能技术的理想载体。
IDC预测,2025年全球智能眼镜市场出货量将超过1200万台。规模虽不及智能手机的百分之一,却拥有无比巨大的增长空间。
一、从十数年磨一剑,到一触即发的“百镜大战”
最早为大众熟知的智能眼镜产品,当属2012年发布的GoogleGlass。它搭载Android系统,支持语音拍照、导航、实时信息显示等功能,但高昂的售价严重影响了市场普及。
2015年,微软面向企业级市场发布的HoloLens1是首款独立MR设备,支持3D建模和手势交互,能用于波音的飞机组装指导,后续还升级了波导光学技术和眼球追踪版本。
2019年,Meta的前身Facebook推出Quest2,以299美元的高性价比推动了VR普及,后续的QuestPro又引入彩色透视功能,尝试AR/VR融合。
2023年,Meta与雷朋合作推出Ray-BanMeta,主打拍照、语音助手和轻量级AR,全球销量突破百万副,成为消费级爆款。Ray-BanMeta大获成功,为市场快速发展铺平了道路,也为后来者树立了标杆。近期,Meta又与知名运动眼镜品牌Oakley达成合作,推出运动版智能眼镜“OakleyMetaHSTN”,为用户带来运动场景下的智能穿戴体验。
当地时间2025年7月11日,意大利罗马,一家雷朋眼镜店内展示的雷朋Meta智能眼镜。视觉中国 图
在VisionPro身上折戟的苹果,宣布放弃把摄像头装进AppleWatch的计划,转而准备在2026年推出首款智能眼镜,正面与Meta展开竞争。
谷歌也是有样学样,宣布与知名眼镜品牌WarbyParker合作推出基于AndroidXR技术的智能眼镜,并同时与三星、GentleMonster和Xreal等,共同研发集成GeminiAI和AR功能的智能眼镜产品。
OpenAI也布局其中,申请了涉及AR/VR头显和智能眼镜的新商标,有意在硬件终端发力。
与国外市场不同,国内市场虽然竞争激烈,但消费者对智能眼镜的认知度还不强,长期处于不温不火的状态,亟需一款像Ray-BanMeta一样的消费级爆款产品,来点燃市场热度。而局面可能很快会打破。
小米最近发布的XiaomiAIGlasses,被定义为“面向下一代的个人智能设备”,旨在替代手机的高频交互地位,融入人车家全生态。凭借小米强大的供应链整合能力,以及日渐完善的人车家智能生态布局,有望推动智能眼镜从“极客玩具”走进“千家万户”,引领带动国内市场的爆发。
2025年6月27日,浙江杭州,顾客在小米杭州门店体验小米AI眼镜。 视觉中国 图
在此之前,国内已有众多厂商试水智能眼镜,既有华为、百度、联想这样的大厂,也有被称为“AR五小龙”的Rokid、XREAL、雷鸟创新、星纪魅族、影目科技等创新公司,推出的产品都各具特点。随着各大厂商陆续进场,2025下半年,很可能迎来智能眼镜的“百镜大战”。
二、我们为什么需要智能眼镜
智能眼镜可以说是为人工智能时代而生的终端形态。其价值不仅在于“替代手机部分功能”,更在于通过“穿戴即智能”的形态,从“衣食住行康育娱”等数字生活全场景中创造“零负担”的交互体验。随着AR技术、AI算力与续航能力的升级,智能眼镜可能成为继手机之后,连接虚拟与现实的新一代移动终端。凯文・凯利在他的新作《2049:未来10000天的可能》开篇就对这一前景作出了预测。
本质上,人们对智能眼镜的需要,是对终端产品“好用”与“管用”的需求升级,可以浓缩为以下核心逻辑:
效率革命:解放人类双手
智能眼镜有效打破了对传统设备的依赖。我们在步行、驾驶、运动、家务等双手被占用的场景中,可以通过语音指令直接进行操作,避免了频繁掏取手机的烦琐。眼球追踪功能可以精准捕捉用户视线焦点,一个眼神它就秒懂。手势识别可以实现手势追踪,支持滑动、抓取等自然交互,比如在驾驶过程中通过简洁的手势切换导航视角。通过智能眼镜,眼、口、手、脑,真正实现了“四位一体”高效协同,极大减轻了双手的操作负担。
信息获取也将变得无缝高效,无需解锁手机,就能通过眼镜屏幕接收短信、日程提醒、导航箭头等关键信息,比如,AR导航可将路线叠加在现实路面,比点开手机更加安全高效。
场景革命:拓展生活与工作边界
通过智能眼镜,AR将进一步释放实用价值,既可以将虚拟屏幕投射到现实场景,实现多任务分屏处理、3D模型查看,开辟智能办公新模式;也可以通过AR叠加路线指引、景点信息,提供更加直观的文旅导览;如果你正在进行健康管理,智能眼镜会自动标记餐桌上的食物属性,并提醒你应该吃什么、可以吃多少。
在制造业领域,AR与工业大模型的结合,将极大提升工业生产、运行维护各环节的工作效率,比如,工程师用智能眼镜扫描故障设备,大模型将直接给出设备维修的可视化操作指引。
智能眼镜第一人称的拍摄视角,对于旅拍、运动摄影和vlog创作也更加友好,既能替代笨重的摄影设备,也能缓解拍摄者的“社恐”焦虑。
智能眼镜还将成为残障人士的福音,帮助视障人士识别障碍物、读取文字和图片信息,实现听觉导航和视觉辅助;通过实时语音转文字、环境音可视化、多模态交互等技术,帮助听障人士识别语音和声音提示,实现“看字-打字-发声”无障碍交流,从而有效化解数字鸿沟。
交互革命:重构社交娱乐体验
集成骨传导音频技术与虚拟巨幕投射的智能眼镜,可以在通勤时替代平板观影,使地铁秒变“虚拟影院”。从“屏幕隔离”到“虚实共生”,游戏和影音玩法将更加丰富,边界将无限扩展,用户甚至可通过智能眼镜“参演”互动影视。
在虚实融合的社交场景下,智能眼镜可以通过人脸识别自动展示对方社交资料,线下聊天时同步获取背景信息,降低社交门槛。远程互动时,第一人称的拍摄视角还能自带“共享视野”功能,实现“天涯若比邻”的奇妙体验。
穿戴革命:从“工具”到“器官级”设备
智能眼镜从“科技工具”到“潮流配饰”的转变,不仅需要时尚品牌的联名加持,更需要满足用户审美需求的轻量化和设计感。随着集成度提升和重量控制,智能眼镜将会像传统眼镜一样,更加接近“无感佩戴”。
然而,要完成从“工具”到“器官级”设备的进阶,还是有很长的技术天梯要爬。虽然部分产品已经具备屈光矫正、心率和疲劳度监测等基础功能,但智能眼镜的进化趋势可能是“AR+AI+生物传感”的融合终端,它的发展不仅取决于终端技术本身,还需要考虑脑机接口技术的发展。当前,Meta等企业已启动脑机接口与智能眼镜的融合研发,若未来脑机接口技术普及,智能眼镜或许会成为负责显示与交互的重要外设,进化成人类的“器官级”设备。
三、谁在支撑智能眼镜的流畅运行
终端越精巧,往往支撑其运行的基础体系越庞大。智能眼镜能够流畅运行,本质上是大模型+大算力+大上行共同作用的结果。
大模型:更好的模型、更强的能力、更好的体验
智能眼镜核心能力的进化,高度依赖多模态大模型的场景化适配。例如:Ray-BanMeta搭载Llama3多模态模型,可识别超过1000类物体,环境感知准确率达到92%。雷鸟V3接入阿里云通义大模型后,AI识别准确率高达98%,能够支持调酒指导、录音总结等复杂任务。RokidGlasses采用“基础模型+视觉模型+搜索模型”的多模型协同架构,端侧意图识别仅需2毫秒,显著提升多任务处理效率。小米的自研大模型也已深度集成到智能眼镜中,提供实时翻译、智能问答、内容生成等功能。
但是,受限于眼镜体积和功耗,还需要综合运用大模型压缩技术、端侧边缘计算、云端算力补充,来构建端云混合架构,以平衡性能与体验。
大算力:端云协同的动态算力网络
多模态大模型的实时交互,比如3D场景理解、多语言翻译,对算力提出了更高要求,倒逼端侧芯片升级、云端算力扩容,以及算力智能调度。
端侧上,不仅有芯片性能的突破,智能眼镜硬件架构正在经历从单核到异构计算的跨越式升级,通过动态分配算力至视觉处理、传感器融合等任务,确保多线程并行效率。
在云端,需要大规模算力集群的支撑,来解决端侧算力瓶颈。语音唤醒等时延敏感型任务在端侧处理,实时3D渲染等计算密集型任务则通过5G/6G网络分流至云端。
算力智能调度,能够基于设备状态(如电量、温度)和网络质量(如带宽、延迟),自动调整算力分配,并能实现跨设备算力共享,调用手机或车载算力为智能眼镜处理复杂任务提供支持。
大上行:从数据管道到智能桥梁
智能眼镜的AI助手、实时翻译、模型渲染、图像识别等功能,需要将大量语音、视频数据上传至云端处理,对上行链路的带宽、时延、稳定性提出了更高要求。
而传统的通信网络,上行速率远小于下行速率。“上行短板”已成为智能眼镜数据传输的关键制约。
大上行,意味着通信网络要有更高的上行速率。随着5G-A的商用,移动通信将实现“下行万兆,上行千兆”。大上行,将有力支撑人工智能时代包括智能眼镜在内的大规模数据传输需求。而6G理论上行速率将达到10Gbps,能够支持4K/8K视频实时上传,实现真正无感的通信体验。
摘下眼镜,想起刘慈欣的科幻短篇《带上她的眼睛》,科技能否成为承载人类情感的容器,让每一朵野花都有名字?而你的下一副眼镜何必只是眼镜?
(作者陶鹤山为数字经济工作者,从事数字化领域政策规划)
来源:陶鹤山