如果你最近觉得 ChatGPT 变慢了,特别是写代码的时候有点卡,这不是错觉。
OpenAI 最近确实被曝出对英伟达的硬件不太满意。但这并不是因为英伟达的芯片算力不够,而是因为它们在现在的阶段暴露出了一个大问题:反应不够快。
AI 行业变天了,现在的难点不是算不出来,而是大家等不起。
一、 以前比谁学得好,现在比谁答得快
过去几年,AI 的核心任务是训练。 这就像学生备考,需要堆很多资源去学习,谁的设备猛,谁就能练出更聪明的模型。英伟达就是靠这个成了老大。
但现在,重点变成了推理。 也就是你点下发送键,AI 给你回话的过程。对于写代码、日常问答这些事,用户不在乎后台有多累,只在乎回复得快不快。
回答正确是基础,回复迅速才是体验的关键。
二、 为什么显卡在速度上吃亏?
OpenAI 觉得慢,主要是因为现在的通用芯片架构不太对路。
通俗点说,这是大力士与快递员的区别:
- 现在的显卡(大力士): 力气大,适合一次性处理海量数据,特别适合训练模型。
- 现在的需求(快递员): 需要频繁地从内存里翻资料,快速给出反馈。
目前的瓶颈卡在内存上。现在的显卡,数据要在计算的地方和存储的地方来回跑,这就拖慢了速度。 OpenAI 想要的是一种能把内存直接塞进芯片里的新方案。这种设计也许力气不如显卡大,但在反应速度上能做到极致。
三、 这不是挑剔,而是为了省钱
OpenAI 找别的出路,不是因为矫情,而是账算得很清楚:
- 烧钱的地方变了: 训练模型是一次性的投入,但每天回答用户问题是无底洞般的持续支出。
- 速度就是竞争力: 特别是在给程序员用的工具里,哪怕慢了 0.3 秒,几百万用户加起来就是巨大的体验灾难。
正如 OpenAI 的老板奥特曼所说,客户非常在意速度。当大家都开始大规模使用 AI 时,英伟达的显卡就不再是所有情况下最省钱、最快的选择了。谷歌、亚马逊都在自己做芯片,也是为了解决这个问题。
四、 这跟咱们普通人有什么关系?
这场巨头之间的硬件竞争,最后其实还是影响我们的钱包。 接下来 AI 产品的比拼,看的是:谁更快、谁更稳、谁更便宜。
如果成本和速度解决不了,直接后果就是:
- AI 回复会被限速;
- 好用的高级功能会涨价;
- 免费使用的机会越来越少。
结语
英伟达依然是 AI 行业的老大,OpenAI 也离不开它。 但这次嫌慢这件事说明了一个新情况:AI 现在的瓶颈,第一次从比拼智力,变成了比拼速度。
只有跨过这道坎,AI 才能从昂贵的高科技,真正变成像水电一样便宜好用的东西。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.