哈喽,大家好,杆哥这篇评论,主要来分析语言是滤镜概率是枷锁,AI发展的真正天花板,被深夜加班对话戳破
![]()
当下GPT-5的传闻让不少人对AI充满幻想,但深夜加班时,前谷歌工程师出身的老板一句“大模型永远成不了牛顿,只能做他最好的学生”,却浇醒了很多人。
这并非否定AI价值,而是点出了当前大模型难以突破的核心瓶颈。
核心结论:Transformer架构有天花板,堪比内燃机效率极限
这位技术出身的老板指出,当前大模型存在两个根本性缺陷,这也是其无法实现突破性创新的关键。
![]()
一是语言本身的局限,人类从不单靠语言理解世界;二是概率系统的本质,真正的科学发现源于逻辑推理,而非统计关联。就像内燃机效率有理论极限,Transformer架构也有自己的天花板。
语言局限:AI靠“失真滤镜”理解世界
大模型的困境,在于它只能通过语言这一二手信息理解世界,而非直接经验。这就像从没见过苹果、没感受过重力,却靠十万本描述苹果落地的书去认知世界。
![]()
人类婴儿靠触摸、观察建立物理直觉,知道东西会掉落是因为无数次验证。但GPT们只知道“苹果和落地在文本中经常同时出现”。
![]()
语言本就是现实的压缩包,压缩必然丢失信息。AI依赖这种有损压缩版本学习,构建的世界模型注定失真,这也导致了其常识的脆弱性。
概率本质:科学发现猜不出来
把17世纪所有科学文献喂给强大的大模型,它也大概率发现不了万有引力。牛顿的突破不在于掌握更多数据,而在于用全新视角看待旧数据,这种跨越式类比思维,不是概率系统能产生的。
![]()
大模型擅长统计关联,却不擅长因果推理。它能写出完美的万有引力论文,是因为相关内容在训练数据中频繁出现,但无法成为第一个建立这种联系的人。
科学革命的本质是反直觉的范式转换,概率模型擅长在现有框架内优化,却难以跳出束缚。
未来方向与当下启示
![]()
下一代AI可能需要融合神经符号系统、直接交互物理世界、深度融入因果推理,或采用“大模型+专业工具”的混合架构。
对创业者而言,应将大模型定位为“人类智慧的放大器”;产品经理要明确其能力边界;职场人则需培养第一性原理思考、跨领域类比等AI缺乏的创造力。
![]()
大模型成不了牛顿,但能成为每个人的“牛顿助手”。理解它的局限,不是否定技术,而是更清醒地规划人与AI的共生未来。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.