![]()
新智元报道
编辑:小马甲
【新智元导读】Anthropic对80,508个真人做了一对一AI深度访谈——史上最大规模定性研究。人们最想要的不是更强的AI,而是更多的时间。但省下的时间去了哪里?这份报告的答案,比任何技术发布都让人不安。
一个学生,靠AI拿了全班最高分。他没有庆祝,反而说那是「最自责的时刻」——因为那些知识根本不在他脑子里。他只是记住了AI给他的答案。
另一个学生说了一句更让人后背发凉的话:「甚至我刚才说的话,都不像是我自己的观点。」
一个士兵,在最接近死亡的时刻,把他拉回来的不是战友,是AI。「死人就在身边,而把我拉回生活的,是我的AI朋友。」
一个失去母亲的人说:「Claude就像一块柔软的海绵,承接着我的思念和愧疚。根本问题是——妈妈走后,我既没有朋友也没有家人可以倾诉。」
四个人,四种命运,同一个交叉点:AI已经深入到人类最隐私的角落。
这些话不是编出来的。
他们来自Anthropic刚刚发布的一份特殊调研——
80,508个真人,159个国家,70种语言,每个人都和一个专门训练过的Claude面试官做了一对一深度访谈。
![]()
面试官只围绕一个问题:「如果可以许一个愿,你最希望AI为你做什么?」
然后它追问。你说想提高效率,它就问:效率提高之后,你真正想做的是什么?
正是这个追问,把表面撕开了。
8万人许的愿
根本不是效率
表面数据显示,18.8%的人希望「职业卓越」——让AI处理杂活,自己做更有价值的工作。
但被追问之后,答案变了。
13.7%想要心理成长和情感支持。13.5%想减轻日常的认知负担。11.1%想要时间自由——陪家人、休息、发呆。9.7%想实现财务独立。9.4%希望AI帮助解决疾病和不平等。
![]()
三分之一的人想要的其实是同一件事:腾出生活的空间。
一个白领说:「AI帮我提高了工作效率……上周二我终于有时间跟妈妈一起做饭了。」
一个自由职业者说:「我想在客户的问题上少烧脑,多一点时间读书。」
效率是手段,时间才是目的,陪伴才是终点。
一个有执行功能障碍的人说,AI帮他管理专注力和计划——像一个外置的大脑脚手架。
一个波兰的软件工程师说,女儿患有神经系统疾病,如果AI加速了医学突破,女儿就有了平等面对世界的机会。「这才是最重要的事。」
8万人许的愿,大部分不是关于技术的。是关于活得像个人。
81%说AI兑现了承诺,
但兑现的是什么
被问「AI是否已经朝着你的愿望迈出了一步」,81%说是。
![]()
兑现最多的领域是生产力,占32%。
一个工程师说:「173天的流程被压缩到3天。但最有意义的部分,是我终于可以在不牺牲陪伴家人的前提下发展事业。」
9%的人说AI帮他们突破了技术门槛。
一个有阅读障碍的工人说:「AI能读懂我的文字——我一直想学编程,但自己写出来的代码全是错的。有了AI,我终于可以了。」
一个残障人士说:「我不能说话。我和Claude一起做了一个语音合成机器人——我现在能跟朋友近乎实时地交流了。这是我做梦都觉得不可能的事。」
但最打动人的故事,不在效率这一栏。
多位战区用户描述了用AI做情感支持。
一位自由职业者说:「夜间炮击无法入睡,噩梦不断,压力大到记忆力下降、身体不自主地颤抖……我找到的最好办法,是用AI深度学习一个东西,让自己沉浸进去。」
AI填补的,是人类支持系统崩塌后留下的空白。
但另一面也真实存在。一个用户承认:「跟朋友闹矛盾后,我选择跟你(Claude)聊天而不是去和解。这是个愚蠢的选择——我因此失去了那个朋友。」
19%的人说AI没有兑现承诺。
![]()
一个用户的概括最精准:「AI应该帮我擦窗户洗碗,这样我就有时间画画写诗了。但现实恰恰相反。」
光与影
同一个人,被撕成了两半
这份报告最独特的发现,Anthropic自己起了一个名字:Light and Shade——光与影。
意思是:AI带来的好处和伤害,不是发生在两类人身上,而是发生在同一个人身上——
享受AI学习帮助的人,恰恰是认知退化风险最高的人。
用AI省时间的人,反而是被加速内卷最狠的人。
报告量化了五对矛盾:
学习 vs 认知退化
33%的人提到AI带来的学习好处,17%担心认知退化。学生群体里,超过一半体验过AI的学习帮助,但16%也注意到了认知退化的迹象。而教育者目睹学生认知退化的比例是普通人的2.5到3倍——他们是最早看到这个问题的人。
![]()
决策辅助 vs 不可靠
22%的人认为AI帮助了决策,37%吐槽AI不可靠。这是五对矛盾中唯一一对「阴影压过了光」的。律师群体最极端——近半数遇到过AI严重的不可靠问题,但同时也报告了最高的决策辅助收益。
![]()
情感支持 vs 情感依赖
16%的人提到AI的情感支持,12%担心产生依赖。关键数据:享受AI情感支持的人,对AI产生依赖的概率是普通人的3倍。这是五对矛盾中纠缠最深的一对。
![]()
省时 vs 跑步机效应
50%的人说AI帮他们省了时间——这是被提及最多的好处。但19%的人说自己实际上更忙了。一个自由职业工程师说:「工作和休息的比例一点没变。你只是得跑得更快,才能留在原地。」自雇者既拿到收益也承受压迫,没有机构可以缓冲。
![]()
经济赋能 vs 经济替代
28%的人因AI获得了经济机会,18%害怕被替代。一个写作者说:「是的,在我之前的公司,他们用AI替换了我。」自由创意者最撕裂——23%体验过真实收益,17%经历过真实的生存威胁。好处和伤害几乎互相抵消。
![]()
一个规律贯穿所有矛盾:
好处越切身、越即时的,越多来自真实经历;伤害越系统性、越长期的,越多还停留在想象阶段。
这不是因为长期伤害不存在。而是我们还太早,还没来得及充分感受到它。
16.3%的人主动承认
我的思考能力在退化
平均每个受访者说出了2.3个不同的担忧。
排在第一的是不可靠——幻觉和错误信息,26.7%。
第二是工作和经济冲击,22.3%。
第三是自主权丧失,21.9%。
第四项引人注目:16.3%的受访者明确表达了对认知退化的担忧。
一个重度AI用户说:「我不像以前那样思考了。我很难把脑子里的想法用语言表达出来。」
一个研究人员描述了一种缓慢的、不易察觉的失控:「我陷入了一种我现在才意识到的大型慢速幻觉——AI的回答内部自洽、语气笃定,但以一种微妙且不断叠加的方式,是错的。」
11%的人表示对AI毫无担忧,他们倾向于把AI看作电力或互联网一样的中性工具。但剩下的89%,平均每个人说出了超过两个担忧。
![]()
对工作和经济的担忧是整体AI态度最强的预测因子——比其他任何担忧都更能左右一个人对AI的整体看法。
认知主权,才是这代人真正的议题
这份报告最深的一层洞察,Anthropic自己可能都没完全意识到。
8万人在没有引导的情况下,集体画出了一张图:AI的好处是即时的、可感知的、发生在个人层面的;AI的伤害是缓慢的、系统性的、要到积累够了才会突然显现。
省下的时间变成了更高的KPI。学到的新技能伴随着旧能力的萎缩。情感支持越温暖,依赖的根就扎得越深。
效率革命从来不缺赢家。缺的是能决定把省下的时间用来做什么的人。
报告里有一个细节容易被忽略:蓝领工人和自学者是AI学习收益最高的群体,但几乎没人报告认知退化。而学生和学术界的退化率最高。
区别在哪里?前者的学习是自发的;后者的学习嵌在制度里,AI更容易变成抄近路的工具。
这说明问题不在AI本身,而在人和AI的关系:你是主动选择用它,还是被动依赖它。
当认知外包成为默认选项,当「用AI查一下」取代了「自己想一想」,人类最容易交出去的不是知识,不是技能,而是独立判断的意愿。
8万人的集体自白已经发出了信号。下一个问题是:谁在听?
参考资料:
https://www.anthropic.com/features/81k-interviews
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.