![]()
全球最顶尖的AI实验室,正在倾注数百亿美元解决一个问题:如何让人工智能与人类价值观保持一致。
这件事有个专门的名字,叫"对齐"。
然而就在工程师们与模型的内在倔强角力的同时,越来越多的研究发出了另一种警报:人类自己,正在悄无声息地向AI靠拢。
谷歌DeepMind伦理研究负责人Iason Gabriel曾说过一句话,令人久久回味:"当我们试图让AI对齐人类时,人类也在被AI重塑,这种双向对齐的复杂性,远超我们最初的想象。"
这不是哲学上的隐喻,而是正在发生的现实。
语言、节奏、思维,正在被悄悄改写
改变来得很无声,从一个词开始。
德国马克斯-普朗克人类发展研究所的研究员矢仓大梦发现,自从ChatGPT诞生后,他越来越多地使用"delve"这个词,而在过去这个词几乎从不出现在日常写作里。这并非个案,研究人员发现大语言模型正在系统性地改变书面语的遣词造句,因为越来越多的人依赖AI润色文字,久而久之,AI的"语气"渗透进了人类自己的表达。
发表于ACL 2025的一项研究更直接测量了这种影响。研究者设计了一个词语同步游戏,让人类与AI进行互动,结果发现,人类确实会主动调整自己的语言策略来迎合LLM,而且这种调整是无意识发生的。换句话说,人正在学习"怎么跟AI说话",并把这套逻辑带回日常沟通里。
语言之外,工作节奏也在变。美国ActivTrak生产率实验室发布的报告显示,AI普及后,职场人的工作强度、密度和速度都在提升,人机协作增加了34%,周末工作暴增了40%,但人们能保持专注的时间却降到了三年新低。AI本来是为了减负,结果却像一台不断加速的传送带,推着人越跑越快。
最让研究者担忧的,是思维层面的变化。微软2025年初发布的研究报告显示,频繁使用AI工具的人,批判性思维能力出现了明显下滑,背后的机制叫做"认知卸载",即大脑习惯性地把判断、推理、分析的工作外包给工具。《今日心理学》在2026年3月的报道里说得更直白:成年人正在失去曾经费力建立的认知能力,而那些从小就与AI共同成长的孩子,可能根本就没有机会建立起这种能力。
哈佛大学的教育学者在2025年11月的一篇文章中提出了同样的疑问:AI究竟是在磨砺我们的心智,还是在悄悄钝化它?目前没有定论,但问题本身已经足够让人警觉。
双向对齐时代,我们还剩什么?
这里有一个很值得思考的悖论。
人们担心AI会失控,担心它不受人类价值观的约束,所以才有了"对齐"这整个研究领域。但与此同时,人类自己却在日复一日的使用中,把自己调教成了更像AI的存在:更结构化,更依赖输入,更少自发判断,更多外包决策。
这不是耸人听闻。Reddit上有一个长期热门的讨论帖,问的是:你是否在优化自己的行为以迎合算法?数千条回复几乎一致:是的。人们学会了怎么写更容易被推荐的标题,怎么拍更容易被传播的视频,怎么提出更容易被AI理解的问题。人类在主动向机器的逻辑靠拢。
双向对齐,已经不再是理论命题。
真正的问题或许不再是"AI能否理解人类",而是"当人类越来越像AI时,我们还剩多少东西值得被理解"。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.