【VRAR星球原创稿件,未经许可禁止转载】
当一个盲人用户试戴了市面上所有的AI眼镜之后,Ta会如何评价这些产品呢?
这个问题并非空穴来风。据悉,中国目前视障人士数量高达1700万,其中很多人对AI眼镜抱有浓厚的兴趣,希望AI眼镜能让他们的生活更加便利。然而市面上哪些产品能如其所愿呢?在盲人群体心目中,被炒得火热的AI眼镜又有哪些普遍的缺陷呢?
不久前,我们跟上海的一位盲人用户进行了1小时的深度访谈。相信他的很多看法会颠覆你的认知。
![]()
钢琴调律师张振宇(以下简称张老师)和他的爱人都是盲人,他们生活在上海。张老师本人非常关注AI产品,几乎试用过市面上所有的AI眼镜。他还组织了一个上海的盲人AI沙龙,以线下社群的形式,让盲人朋友们体验科技产品,互通有无。今天我们就以一个全新的角度来看待AI眼镜,看待科技产品。
(以下是VRAR星球和张老师的采访)
VRAR星球:
请简单介绍您本人和您家庭的情况?
张老师:
我叫张振宇,是一名视障者,然后我在上海做的工作是钢琴调律师(注:负责钢琴音准校准、机械系统维护与维修的专业技术人员)。我和爱人都是盲人。
因为工作关系,独立的出行是我们工作当中的一个很重要的环节。20多年一直是这样子,包括我们在家独立生活,包括爱人在家做家务,以及我们在家识别一些需要识别的包装、物品,包括一些电器的使用。
之前因为没有AI,对我们来讲应该是属于非常不方便的一种状态,而且经常需要去麻烦到亲戚朋友,甚至有的时候是邻居、保安。
![]()
VRAR星球:
我们知道您运营了一个盲人朋友的AI社群,能否给我们介绍一下社群基本情况?
张老师:
是这样子的,去年5月份的时候,我们在网上看到了一个视频,就是ChatGPT。当时发的是一个视障者在路上打车,然后他当时给AI的一个指令是:看到某一个车牌尾号的车子停在他面前的时候提醒他上车。然后车到了, AI提醒,他上车,一气呵成。我们觉得对我们来讲太神奇了,那这不就是一个钢铁侠当中的贾维斯吗 ,对不对?
所以后来我们就去通过各种各样的渠道去查,这是一个什么样的功能。后来知道了这个东西叫“AI视频通话”。于是我们就去找,不管是国内的还是国外的,免费的、付费的,包括一些试用版的都拿来试,并且我就和我们周围的视障小伙伴(分享)。
我们大家因为工作当中、生活当中对这些的刚需是一样的,所以我们觉得说一个人的发声或者说一个人的体验,他的力量是有限的。所以我们今年就组织了这样的一个线下的沙龙、AI的社群。主要目的是:第一,大家去一起聊一下,我们都在用一些什么样的 AI产品,哪些是可用的,反过来说哪些是不可用的,等于是一个互通有无。
然后在这样一个基础上,大家把能用的一些产品做一些提炼总结,出一些针对于视障者的一些视频或者文字的一些教程或者攻略,把我们觉得不好用的地方也同时总结起来,跟各个大厂、跟做模型的单位等等进行一些沟通交流,希望能通过我们的努力去推动这件事情,能更好的把 AI技术去赋能在我们视障者的身上。大致就是这样的一个情况。
VRAR星球:
是什么机缘让您接触到AI眼镜?
张老师:
我们之前更多地是使用手机的旁白来操作,比如苹果旁白、安卓的读屏功能。所以之前我们操作的一些AI产品,包括AI应用,它都是在手机端的。所以我们出行的时候和在家里就举着个手机,去做各种各样的识别。
后来我们发现,也是小伙伴们的一个共识,我们出行的时候一个手拿手机,一个手拿盲棍,这个时候会非常不方便,有的时候会有一些安全的隐患。
我们就想:有没有一种产品可以既保留它的AI功能,同时又可以解放我们的双手?让我们能够更自如地去行走、工作、生活,不需要别人过多地帮助?
后来我们听说有AI智能眼镜这样一个品类,今年5月份的时候,我们就去参加了VRAR星球的一个智能展(注:正式名称叫做中国上海VRAR产业博览会)。这应该是我第一次接触智能眼镜。因为展会也是第一次参与,所以里头也是一头雾水,还好有手机AI,然后让它去识别各种各样的展台。
![]()
2025中国上海VRAR产业博览会
之前我们也做了一些功课,查了有哪些企业去。可能跟我们的需要相对来说吻合的,我们就一家一家去问。
最早碰到的应该是Rokid乐奇,因为他们的产品是可以在展会上直接佩戴的,而且它有针对于视障者的一个叫“慧眼”的功能。
有一些当时好像还只是一个模型,它只有文字的说明,它并没有可以直接佩戴的体验。乐奇是可以直接去佩戴的,所以这应该是我戴的第一副智能眼镜。
VRAR星球:
从那之后,您接触过哪些厂家的哪些产品?中间跟厂家的沟通过程、具体的故事等等,都可以跟我们分享。
张老师:
我很坦率地说,当时在你们展会上碰到的产品,应该还都比较初级。所以我印象很深的就是,当时连蓝牙的时候连了半天,一直没有连上。甚至当我头转向了另外一个方向的时候,它播报的还是前一个画面,也就是相当于卡在了前一个画面里头。
然后好像那次也碰到了雷鸟,但是好像雷鸟当时是蓝牙基本没有连上?对,没有连上。
然后还有应该不是在你们的展会上,而是我在之前在网上接触过商汤科技。当时他们有一个团队也是做AI眼镜的,但它应该只是一个试用产品。正好那天下午我回到工作室以后,他们来找我们。然后他那个产品在 AI眼镜的基础上,它连了一根线,直接就连到手机上了。
但是我实事求是说啊,尽管这个方式有点不是很方便,但是它的连接效果倒是蛮好的!也就是那次,我第一次在不用双手、戴在头上的时候,体验到了AI视频聊天的功能,就直接集成到脑袋上!它带了一个线以后,整个连接反而是比较顺畅的。
然后乐奇是当时我们就跟他们表述了,说我们有一个线下沙龙。并且当时我们发现:在没有人帮助的情况下,我们是没有办法独立拿了一个眼镜进行配对,这些操作我们是做不了的。当时好像还没有苹果端,只有安卓端,然后我说能不能来我们的沙龙,然后把你们的产品带过来,让更多的盲人朋友可以试戴。你们能够听取一下我们大家对于AI眼镜的功能的需求。
结果后来我们沙龙的时候,就有乐奇的一个小何老师,Ta就带着他们的眼镜来了。当时已经是升过级的了,带到了我们的沙龙里头,给我们大家试戴。
那一次我们体验到的乐奇眼镜的“慧眼功能”,就比我在展会上要好不少。第一个,你问它前面的一个环境,它能给你做一个相对来说比较清晰的描述。第二个,你头转到哪里,它也会有一个相对比较粗播报。这就是我们第二次AI沙龙的时候,体验到了乐奇的升级版。
顺便说一下,乐奇是我知道的唯一一个有专门开发人员和我们视障人群对接的团队,是唯一一个考虑视障者需求,给眼镜专门开发相应功能并且迭代的团队。
![]()
然后小米是我们自己去他的门店体验的。小米目前好像还没有支持类似动态视频聊天的功能。只是说你问一句,然后它会给你拍张照,拍完照以后给你来做一个描述——我感觉到的应该是这样子。它并不是完全是一个实时性的(交互),只是一个类似拍照描述的这样一个静态的状态。
其他的?雷鸟现在我还没有戴过。然后Meta的国内不好用,而且那次去展会的时候好像也没连上。最近两天又出了不少像夸克,现在我还没有接触到。我不清楚是一个什么样的体验。包括昨天晚上的理想,我们也没有戴过。
对了,我们还参加了2025世界人工智能大会,好像也戴到了联想的(眼镜),好像还有中国移动还是中国电信的智能眼镜我忘了。包括魅族,它还是停留在一个你问它一句,然后它在前面拍一个照,然后来给你描述的场景下。
VRAR星球:
所以其实市面上有名的这些厂家的产品,您都接触过。
张老师:
是的。
VRAR星球:
您在AI眼镜这个品类里需要哪些维度,您可以列出来。然后我把我手头这些产品,按照您需要的维度,拍一些demo或者测试之类的,以供盲人朋友们去参考,好吗?
张老师:
太好了!通常测试眼镜适不适合我们用,我觉得有几个维度。第一个维度就是:在拿到眼镜的时候,在没有别人帮助的情况下,我们能不能通过旁白(苹果的旁白或安卓的读屏功能)独立进行配对。也就是说这个东西我们能不能独立操作。
第二个维度是它的延迟是不是能够足够到一个动态的变化。比如说我问它一句,它能在多长时间能够做出反应。
更重要的是什么?它有没有一个上下文的记忆功能。比如说我们会在不提问的情况下,让眼镜对准某一个物品,然后我换一个画面的时候,我会问它前一个物品是什么。它有没有这样的一个记忆功能?
这个对我们来说其实是挺重要的,因为它能够记住之前看到过的东西。这里头牵涉一个什么问题?比如说前面有某一个店的招牌,但是其实眼镜这时候对准的是店招边上的一棵树或者另外一个地方。盲人他也不知道这是一个招牌,所以他的脑袋就移开了。最好在盲人问之前,眼镜能识别出招牌,告诉他招牌在哪儿。所以我们需要的是一个类似于它一直在后台识别,有上下文的记忆功能。
当然最ok的是什么?预设的指令。到前面出现某一个环境、某一个物品或者某一个场景的时候,能不能主动提醒我?比如说我在十字路口,那个时候是红灯。我预设一个指令:绿灯的时候能不能主动提醒我?还有比如说我在倒水的时候,当我水全部倒满,能不能主动提醒我?或者就是说我在做某一个动作,比如说我在炒菜或者我在做健身的时候,当眼镜发现我这个动作有错误的时候,请主动提醒我。
![]()
还有一个场景是什么?我们在家里掉落了一个东西,比如掉在地上,那么需要它来引导我们去找到。这个可以是一个类似寻找的Agent,比如说手再往前一点,再往前一点,再往右一点。相当于用我的第一视角来指导我去找到、摸到这个东西,而不是你问一句它答一句,你问一句它答一句。
最后就是一些无障碍的适配,就是它的APP是不是所有标签都加了读屏?还是那句话,就是我们能不能以独立的状态去完成眼镜的操作。
VRAR星球:
相对您的这些需求,目前这些品牌里哪些做得比较好?普遍的做得不好的地方又有哪些?
张老师:
可能乐奇我测的会多一些,我们就拿乐奇来举例子说。我今天还在写乐奇的一个报告,我觉得它好的地方就是说,它现在的无障碍适配做得非常好。也就是说眼镜寄到我手里,我在没有人帮助的情况下,我可以去独立的去给它做配对,并且APP的所有系统更新,这些操作我们自己能独立地去做,这个是很ok的。
但是我也实在地说,其实不是乐奇的问题,而是所有AI眼镜的问题:它对于静态拍照的描述应该说还是可以的,但是我刚才说的上下文记忆,包括它的一个实时提醒,目前不是可不可以的问题,目前是没有的。
VRAR星球:
都没有吗?
张老师:
所有都一样。
哎?我今天早上还看到一个什么眼镜我忘了。昨天晚上发出来的。我不知道这是在试用还是在干嘛,它是借助阿里云,是一个可以针对于视障者的眼镜。我昨天还看到别人发我视频了,名字我叫不出,待会你们也可以查一下。这是昨天晚上阿里云的账号发出来的。
它是在现有的基础上,好像有一些可以帮你找东西的这种Agent的这样的功能,有这样的一个能力。但是是不是实际能做到?因为我们发现一个问题,往往它产品的介绍,包括它官方的视频,跟我们拿到手里的体验,这里面可能会有一点点的落差。
![]()
VRAR星球:
我是不是可以理解为,现在市面上所有的AI眼镜都是被动唤起,然后才跟人进行交互?
张老师:
是的,所有都是。
VRAR星球:
主动交互能力基本上是没有。
张老师:
对的,主动交互是没有的。其实我们希望的是,第一个它能够更精准,就是识别到的东西它能更精准。第二个它能够更主动。第三个它能够针对我们视障者的情况,去设置一些类似提示语,去帮助我们更好地识别,帮助我们去看东西;相当于说给到一个提醒跟纠错的机制。
VRAR星球:
从您的角度看,目前市面上AI眼镜这个品类在技术上、产品设计上,普遍存在哪些缺陷?
张老师:
我们接触了很多厂家,我也很客观的说,其实我刚才说的这些能力,目前的大模型它应该都是做得到的。并不是我说做得到的,而是很多行业内朋友的一个共识。
但是问题在哪?问题在于做得到并不表示他们会去做!第一有可能说,视障者朋友这个群体虽然说需求比较明确,但是人群相对小众。然后做这样的一个产品,做出来以后第一能卖多少?他们给我们反馈,他们不清楚。
第二,做视障者产品,要产生的一些算力等等这些成本,用户的付费意愿能到什么样一个程度?大家其实都不清楚。因为它不单纯是说你买一个眼镜,那是一次性的投资对不对?
但是就像我刚才说的,我们更需要的是一个更主动的提示。那么以目前的模型的大小——因为以后有小的模型,有端侧又小又能打,这是以后的事儿——但我们只讲以目前的来说,那么这就是一个不可调和的矛盾。
当它的识别能力强了,那么它必然需要消耗的算力资源就多,或者说那么它的运营的成本就会高。那么事实上我们是不是能够消耗得起?这也是很多做眼镜的厂家,他们没有去下决心投入在这件事情上的(原因)。目前好像找不到太有效的一个解决路径。
当然也有提过说,把这个算力不要放在云端,而是放在端侧。比如说在一个眼镜的基础上再接一个类似像算力盒子这样的方案,但是目前还没有出来。我也不清楚这样的一个本地跑的模型或者本地跑的算力,它能够识别到一个什么样的程度。我们没有接触过做出来的成品,只是一个想象当中的方案。
![]()
VRAR星球:
以上海为例,上海的盲人朋友在生活中肯定也需要一些科技设备,这些设备大概花费有多少钱?
张老师:
我就拿我自己举例子。像两三千块的眼镜,比如说像好一点的手机,七八千的手机,这是一次性的投资,我们没有问题的。因为投资完了就一直可以用,而且可以用挺长时间的。
第二个是日常的花费。也有人跟我们讲,如果按照我们说的要主动提醒的这样一个功能的话,如果按照云端的话,花费可能是比较明显的。但我觉得说正常情况下,如果有比较好的效果,我觉得小几百是我们应该能够承受的。
VRAR星球:
一副能达到您说的那些需求的眼镜,大概在一个什么价格区间,您会比较容易接受?
张老师:
视障者各家情况不一样,对这个东西的需求也不一样,所以这块我仅代表我个人。我个人觉得2000-3000应该是能接受的。因为我们对这个东西极度刚需。因为我说过了,我和爱人都是盲人,然后家里又没有其他人,弄不好以后老人还需要我们照顾,所以很多事情是要我们独立去做的,包括出行,包括家务。这是客观存在的。
那么还有一些家庭,比如说他家里一个盲人加一个低视力,或者说两个盲人有个小孩,小孩是看得见的。那么这种情况下,他可能就对这个东西的需求就会少一些。
![]()
VRAR星球:
您和您的社群的盲人朋友们,期待将来能有一个什么样子的产品?
张老师:
我觉得可能不一定是一个产品,是一组产品。如果从我们现在用手机的角度上说,能够更智能,就像前两天发出来的豆包手机那样的一个模式,通过语音去控制一些APP的操作。因为现在事实上很多APP的操作是有一些无障碍盲区的。
然后从出行的角度上说,我们希望眼镜能够解放我们的双手,能够指引我们去想要去的地方,并且我们可以去非常安静地、非常从容地、不需要去求助别人地去完成比如说坐车、打车,比如说进地铁,比如说找某个店,比如说去饭店点菜等等,去独立完成这样的一些工作。
那么在家里,不管是机器人也好,还是眼镜也好,希望一些硬件产品能够帮助我们去更好地使用或者学习家里的所有的电器设备。因为现在都是触摸的嘛,包括洗衣机、空调、微波炉、烤箱,还有以后一些智能家电。眼镜能够帮助我们去跟整个时代、整个社会有的一些、别人能够用到的产品,去保持一个差不多的同步状态。
![]()
另外,我们发现一个问题:有很多产品它已经做出来了,或者说有很多产品它已经投入市场了,那么这个时候即使我们评测、测试,发现这样那样的一些关于无障碍的问题,或者一些使用障碍,或者我们希望它改,其实改的空间已经很有限了。
我们希望能在跟我们有关的产品它出来之前、大面积地供应之前,能够有提前体验的机会。那么能够在这样的一个最早的时间段去介入它,这样的话其实能够让这个产品去改进。
你可以上网去看,不管是AI产品还是眼镜产品,还是AI的应用,事实上在网上找不到任何针对视障者朋友的一个教程。就是说即使这个东西我是开发给盲人用的,但是事实上是找不到任何教程的。专门给我们用的东西我们自己还用不来。
所以我们可以做这样一件事情:自己体验,跟厂家沟通,把这些产品做得更完善、更优化到一个我们能用的状态。同时对视障者朋友做出来一个有用的教程,不管是视频也好,文字也好。因为你们写的教程有的时候视障者他不一定看得懂。
VRAR星球:
视障者朋友需要一种什么样子的教程?
张老师:
我觉得这个教程应该基于很简单的一个逻辑:就是不管它是能旁白的手机还是安卓的手机,基于手机读屏,我们能够进行具体的操作流程就行了。
VRAR星球:
这方面如果不直接跟视障者群体接触,去一线做调研,可能就想不到。
张老师:
上次我们去你们的活动(注:指的是2025中国上海VRAR产业博览会),他们说雷鸟有一个能实时交互的,但是我们没体验到。是雷鸟X还是雷鸟一个什么眼镜,它是有一个叫“看世界”,那个他说是实时交互的。但我一直没体验到。
![]()
好像是不是乐奇还接近一点?它就叫慧眼。你直接跟它说“打开慧眼”就可以了。最早的时候慧眼功能设定了两种模式,第一种模式就相当于AI视频通话,你问一句它答一句的这样一个模式,比拍照快一点。
第二个模式是什么?就是头转到哪里,它看到什么,它就会直接自动给你播报,你不用去问它。但是它也不是预设的指令。就相当于随机地播,只能说播到哪儿算哪儿。但前两天我拿到的一个乐奇的版本是没有第二个模式的。
VRAR星球:
这个功能下线了吗?
张老师:
不是,他们说第二个模式在优化,所以暂时撤回了。就我接触的这些来说,乐奇是唯一一个在智能眼镜上面,给视障者开发相应功能的团队。所以不管怎么样,我们都非常期待优化更新之后的慧眼模式。
VRAR星球:
您最期待的智能眼镜产品是什么?
张老师:
现在我们最期待的是字节的眼镜。为什么?因为所有的AI,不管是chatGPT还是Gemini的视频通话,包括国内的美团的LongCat以及阿里的Qwen3-Omni,基本上都是属于问答形式的。
但是字节的豆包不一样,在我们跟他们反复沟通过程当中,豆包他们是目前为止国内第一个我可以预设一个指令,然后它可以主动提醒我的。它现在有这样一个视频通话功能,你们可以去试。它是对每个人都开放的,比如你说当“看到XXX时候主动提醒我”,它会提醒。只是会有一定的延迟,目前延迟在3秒到4秒之间。
那么我们就在想,既然这个东西已经在APP上了,那么他将来出眼镜的话,应该大概率会集成到眼镜上,这个是我们要的。尽管一它不完美,二是它有延迟,但至少它这个路子是我们要的。
![]()
VRAR星球:
您觉得理想中的眼镜延迟应该在多长时间?
张老师:
我觉得应该在1-1.5秒,1.5秒应该是一个极限。因为这里头有不同的任务,比如说有些任务我可以容忍它的高延迟,哪怕三秒都没关系。但有的任务它一定要快速实施,举个例子,你帮我看一下红灯跟绿灯,那么如果延迟一秒钟两秒钟都有可能会出问题。就看它这个任务的优先级。
今天早上我还在跟字节的老师们说,有没有可能把这个算力向我们的功能做一定的倾斜?或者说出一个收费的版本?我们要求:主动提醒,能够给我们的行动纠错,能够把延迟降下来。他们还没回我。其实他们都反馈说,做到这些技术上普遍都觉得不难,问题是做到了这事儿以后谁来买单。
VRAR星球:
感谢您给出的明确的需求。我特别理解这些厂家,毕竟每个功能它都有成本的,产品是要盈利的。本身智能眼镜这个品类就小众,现在竞争还很激烈,他们也有他们的困难。
张老师:
对,因为你想视障者也并不是一个高收入的群体,这个是没办法的事情。他本身就是一个弱势群体。那么在这种情况下,这个窟窿谁来补?你做出东西来就得有人买,否则的话那就是一个形象工程,也没有意思对不对?
VRAR星球:
非常感谢张老师接受我们的采访,感谢您给我们一个全新的角度来看待这个行业。
![]()
结语
最后,星球课代表总结一下张老师的核心观点:
1.视障群体尤其是盲人需要在没有别人帮助的情况下独立生活、独立出行。
2.视障群体对AI产品、AI技术感兴趣,认可AI能帮助他们更好地生活。
3.很多AI眼镜蓝牙连接效果不好,有线连接效果更好。
4.AI眼镜的APP端需要无障碍适配,让视障群体通过手机旁白功能(苹果旁白或安卓的读屏)独立进行配对、使用等操作。
5.在需要快速反应的场景下,AI眼镜的反应延迟应该在1-1.5秒,1.5秒是极限。
6.AI眼镜要有上下文的记忆功能,知道过去对话内容是什么。
7.AI眼镜需要主动交互而非被动问答,尤其是能根据用户预设的指令判断周边环境,符合指令时对用户进行提醒。
8.目前没有接触到任何一款AI眼镜产品能全部符合APP无障碍适配、主动交互、上下文记忆、实时提醒这些功能需求。
9.目前AI眼镜厂家普遍认为做到上述功能技术上不难,但普遍担心购买意愿和购买力问题。
10.希望能在AI眼镜开发的早期阶段介入,跟品牌方一起把产品改进得更适配视障群体。
我们再次感谢张振宇老师为中国1700万视障群体发声。他们或许边缘、小众,但他们渴望丰富多彩的生活,并且不愿意麻烦别人。
AI眼镜这一品类方兴未艾,仍有巨大创新空间,我们相信未来更多产品在设计上、技术上会向视障群体倾斜,为他们带来更便利、更美好的生活。今后我们会继续跟进视障群体这一话题,让科技拥有更多温度。
如果本文刷新了您对视障群体的看法,请转发本文,让更多人理解这个群体的实际生活需求和心态。感谢您的参与。
文 / 鱼
(文中未标注的图片均来源于网络)
VRAR星球每天都会发布XR领域深度文章及业内新闻,感兴趣的朋友可以持续关注哦
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.