![]()
一项覆盖数千名技术从业者的调查显示,31%的人把「编造信息」列为AI的头号问题——不是算力贵,不是反应慢,是这玩意儿一本正经地胡说八道。
数据冲击:信任危机比技术瓶颈更棘手
HackerNoon的「3 Tech Polls」栏目近期汇总了三组关键投票。第一组数据就相当扎心:当问及「AI最该解决什么问题」时,「幻觉」(Hallucination,指AI生成虚假内容)以31%的得票率碾压其他选项。相比之下,担心「成本过高」的仅占18%,「响应速度慢」更是只有9%。
用户宁愿等三秒等个真的,也不想秒收一份假的。
这组数据的吊诡之处在于:AI厂商过去两年拼命卷参数、卷上下文长度、卷多模态,仿佛模型越大就越厉害。但用户端的反馈很直白——你吹得再天花乱坠,给我一份带编造的财报分析,我敢用吗?
一位参与投票的开发者留言:「我现在用GPT写代码,每行都要人工复查。它不是在帮我省时间,是在给我增加一道质检工序。」
AI Agent:从「即将爆发」到「再等等看」
第二组投票聚焦AI Agent(智能体)——那个被硅谷寄予厚望、号称要取代人类工作流的概念。结果呈现明显的「认知分裂」:67%的受访者相信Agent会在未来12个月内进入工作场景,但同一批人里,只有34%认为当前的炒作能兑现。
信它会来,不信它现在行。
这种分裂很有代表性。大厂发布会上的Demo总是丝滑的:Agent自动订机票、写周报、管项目。但真到工位上,员工面对的是一个需要反复确认权限、频繁打断工作流、偶尔还会把「取消会议」理解成「给全公司发邮件宣布取消」的不稳定系统。
投票评论区有人打了个比方:「现在的Agent像刚拿到驾照的实习生——能开车,但你敢让他单独见客户吗?」
更微妙的是时间差。67%的「12个月内」预期,与34%的「炒作兑现」信心,中间隔着33个百分点的信任缺口。这缺口里装的是什么?是过去两年被过度承诺透支的用户耐心,也是技术落地时那些Demo不会展示的边角案例。
![]()
技术乐观主义者的谨慎时刻
第三组投票相对温和,但同样值得玩味。当问及「未来一年最期待的技术突破」时,「多模态理解」以41%领跑,「推理能力增强」占29%,而「价格下降」仅有12%。
这组排序透露了一个信号:目标用户群——25-40岁的科技从业者——对AI的期待正在从「能用得起」转向「用得放心」。价格不再是首要痛点,质量和可靠性才是。
这与第一组数据形成呼应。31%的人抱怨幻觉,本质上是在抱怨「不可验证的输出」。多模态理解再强,如果生成的图表数据是编的;推理能力再强,如果推导过程藏了逻辑陷阱——这些「高级功能」反而成了风险放大器。
一位数据科学家在投票附言里写:「我团队上周用某主流模型分析销售数据,它『发现』了一个季度环比增长23%的趋势。我们激动了半天,最后发现是它把两个不同口径的指标拼在一起了。这23%不存在。」
厂商的沉默与用户的声音
值得观察的是,这三组投票的样本并非普通网民,而是HackerNoon的读者——一群每天和代码、数据、系统打交道的人。他们对技术的容忍度不低,对缺陷的识别能力却更强。
当这群人把「编造信息」投成头号问题,厂商的宣传话术就显得有些错位。你很少在发布会上听到CEO说「我们今年的重点是减少幻觉」,更多听到的是「参数翻倍」「上下文破百万」。但用户端的投票数据,像是一份未被充分倾听的需求清单。
这种错位有历史原因。幻觉问题难以量化展示,而参数规模可以;减少幻觉需要长期工程投入,而新功能可以快速迭代发布。但在31%的投票占比面前,优先级或许需要重新校准。
一个细节:三组投票的评论区里,「人工复核」「人类在环」(Human-in-the-loop)被反复提及。这不是对AI的否定,而是对「全自动化」叙事的修正。用户想要的是辅助,不是替代;是可信的加速,不是失控的便利。
投票结束后的讨论区,有人留下一条未署名的评论:「如果明年这时候再做同样的调查,我希望『幻觉』的占比能降到15%以下。不是因为我相信技术会自然进化,是因为如果还停在31%,这行就太让人失望了。」
这条评论目前获得了最高赞。它没问「AI会不会取代人类」,而是问了一个更实际的问题:在取代之前,它能不能先做到不骗人?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.