如今,AI正在飞速发展。
美国几大科技巨头微软、谷歌、亚马逊、Meta等,把成百上千亿的美元扔进它的熔炉。
这个熔炉就是AI数据中心,预计将烧掉5200亿美元。
钞票驱动着全球最强大的算力,喂养着无所不能的大模型。
另一边,ChatGPT的周活跃用户,悄无声息地突破了8亿。
许多人已经习惯了向它提问、让它写文案、甚至帮我们总结人生。
![]()
一个令人不安的真相,浮出水面。
我们引以为傲的AI,可能不仅是个“烧钱”的无底洞。
这句话像一盆冷水,浇在资本与技术的盛宴上。
某种意义上,AI还是个不解世事的“智障”。
![]()
越用越贵的伪智能
任何脱离商业可持续性的繁荣,最终都可能是泡沫。
你用过 Netflix 或 Spotify 吗?它们是最经典的互联网模式。
一旦平台搭建好,服务一千万用户和服务一亿用户的边际成本几乎为零。
利润空间巨大。
![]()
这是典型的规模效应。
但AI,尤其是大模型,走了一条相反的路。
它的每一次回答,每一次“思考”,都是一次巨大的算力消耗。
用户越多,需要的计算量就指数级增长。
数据中心就得越建越多,电费账单也越长。
这根本不是边际成本趋于零,而是边际成本高得吓人。
据《环球时报》引述的数据,巨头们砸下了近1000亿美元的巨额现金。
但是缺少可观回报,其性质近乎“烧钱”。
而ChatGPT年化仅百亿美元规模的订阅收入,在千亿级的投资面前,简直是杯水车薪。
![]()
为什么赚不到钱?
除了成本高,还因为它不好“卖广告”。
你刷朋友圈、看短视频,广告可以见缝插针。
但大模型一次只给你一段回答,怎么自然地插入三五个广告位?
难不成在答案中间插播:“推理到一半,我们先看段广告?”
企业市场曾被寄予厚望,但现实同样骨感。
MIT去年8月的一份报告显示,将AI引入业务的企业中,高达95%并没有赚到钱。
![]()
云服务巨头甲骨文的GPU租赁业务,毛利率仅14%。
考虑折旧后更是跌至7%,远低于其传统业务70%的水平。
问题很清楚了:当前的AI,商业模式存在先天缺陷。
它像个被宠坏的天才,食量惊人,却很难出去打工赚钱养家。
![]()
AI智能的假象
如果说商业困境是外患,那技术上的先天不足就是内忧。
我们一直以为AI在理解和推理。
但哈佛大学的研究者Keyon Vafa和他的团队,做了一个精妙的实验。
窥探到AI的“内心世界”,结果让人大跌眼镜。
![]()
他们让一个AI模型,学习了数百万条曼哈顿街道的导航指令。
之后,他们想看看AI脑子里生成的“曼哈顿地图”是什么样子。
你猜怎么着?
AI画出来的,根本不是我们认知中规整的“棋盘式”街道图,而是一团乱麻。
它推演出的路线,包括横穿中央公园的直线,或者斜着连跨好几个街区的“野路子”。
用这个模型做导航,在99%的情况下居然能给你正确的分步指令!
这说明了什么?
![]()
说明AI根本没有构建出,关于城市空间的整体“世界模型”。
它不像人类,脑子里有一张地图,懂得“街区”、“障碍物”、“绕行”这些概念。
AI只是通过海量的数据,死记硬背了无数条孤立的经验。
从A点到B点,先说左转,再说右转……
所以,当研究人员只是虚拟封锁了曼哈顿1%的街道时,这个模型的导航性能就瞬间崩盘,准确率暴跌。
![]()
因为它背过的课文里,没有这道超纲题。
而人类司机,却能轻松绕行。
这就是统计模式匹配,与真正智能之间的鸿沟。
AI是一个超级的记忆大师和模式匹配器,但它不是一个理解者。
![]()
思维链的谎言
最颠覆我们认知的,是它对“思考”的模仿。
我们习惯让AI“放出思维链”,看它一步步推导,觉得它逻辑清晰。
但对不起,这很可能也是它“演”给我们看的。
做出Claude模型的Anthropic公司,在一篇论文中,像做脑部CT一样,扫描了模型做简单数学题时的大脑活动。
题目是“36+59=?”。
![]()
我们人类会想:个位6+9=15,写5进1;十位3+5+1=9,结果是95。
模型生成的“思维链”也是这么写的,看起来完美。
但“脑部CT”显示,它内部压根没走这个流程!
它激活的是一堆杂乱的特征:比如“接近60的数”、“和接近90”、“数字以6和9结尾”……
最后这些特征组合,蒙对了答案95。
模型提供的“推理步骤”,只是因为它学习的人类文本中,答案总是伴随着这样的解释。
它学会了这种说话方式,但并没有相应的思考过程。
论文结论直言不讳:模型对推理的解释纯属虚构。
这就像一个人不会做菜,但他背下了一本菜谱。
![]()
你问“番茄炒蛋怎么做?”,他能流利背出步骤。
但你真给他灶台,他连火都打不着。
理解了事情的本质,当AI在医疗记录里编造药物,你对AI的“胡说八道”就不会感到奇怪了。
OpenAI自己都承认这是个问题。
他们推出了一个叫SimpleQA的基准测试,专门考模型一些有明确唯一答案的事实性问题。
最好的模型准确率也只有42.7%,相当于不及格。
而这些问题对人类来说非常简单。
更可怕的是,它们还特别自信,总是高估自己答案的正确率。
这种幻觉在现实世界中会造成真实伤害。
![]()
美联社报道,一款基于OpenAI Whisper的医疗转录工具,被超过3万名临床医生使用,处理了约700万次就诊记录。
但工程师们发现,几乎每次转录都存在幻觉。
在一份记录中,它甚至凭空发明了一种叫“超活性抗生素”的药物。
这要是导致误诊,后果不堪设想。
一个无法区分事实与虚构、却无比自信的“助手”,你敢在重要事情上托付一切吗?
![]()
我们需要的AI是“理解”,而不仅是“计算”。
我们必须保持清醒,当前的AI,是一个基于历史数据、通过蛮力计算达到的奇迹。
它在模式匹配、内容生成上取得了惊人成就,我们应该善用这些工具。
但它不是人们潜意识里期待的拥有常识、懂得因果、能真正理解世界的“通用智能”。
它像一个患有“学者综合征”的天才。
在某些方面表现卓越,但整体心智却极不成熟。
未来的突破,或许不再源于更大的算力和更多的数据,而在于新的范式。
能让机器像婴儿一样,通过观察和交互,真正“理解”这个世界如何运作的范式。
在那之前,保持对AI期待,但也保持警惕。
真正带来繁荣的,从来不是单一技术的狂飙突进。
而是技术与人类需求深度、稳健的融合。
资本的狂欢落幕,人们需要的,是能够照亮现实的火焰。
素材来源
1.《环球日报》:算力难变现 美国AI陷入困境
2.《新智元》:AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭
3.《十轮网》:AI比你想象的还要笨,MIT研究揭示AI认知的缺陷
本文作者 | 柠檬雪
责任编辑 | 淡淡翠
策划 | 淡淡翠
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.