当英伟达凭借通用GPU与CUDA生态构筑起难以撼动的行业壁垒时,一家仅24人的初创公司Taalas,却以一枚极致芯片撕开了AI芯片赛道的全新可能。
![]()
其推出的HC1芯片,运行Llama 3.1 8B模型推理速度高达17000 token/秒,是英伟达H200的七十多倍。更颠覆认知的是,它摒弃了昂贵的HBM高带宽内存与复杂液冷,功耗仅为传统方案的十分之一。而这颗芯片最极致、也最受争议的特点是:一经出厂,便只能运行固定模型,完全不可编程。
这支团队的掌舵人Ljubisa Bajic,是拥有13年AMD、英伟达任职经历的资深芯片架构师,也曾是明星AI芯片公司Tenstorrent的创始人。在“硅仙人”Jim Keller加入Tenstorrent并转向通用化路线后,Bajic选择出走,创立Taalas,走上了极致专用化的另一条道路。
Taalas的逻辑直白而暴力:当前AI推理的核心瓶颈是“内存墙”,数据在计算和存储之间搬运消耗了95%以上的能耗。既然如此,不如直接拆掉这堵墙。HC1采用台积电6nm工艺,通过Mask ROM工艺将Llama 3.1 8B模型权重直接“刻”入电路连接中,实现芯片即模型,模型即芯片。电流流过的瞬间即可完成推理,无需数据搬运,换来能效比的质变。
但极致的效率,也意味着极致的风险。
![]()
HC1虽性能炸裂,却只能跑2024年发布的Llama 3.1 8B。在GPT-5.2、Claude 4.6、DeepSeek R1等新一代模型加速迭代的今天,这颗芯片出厂即面临过时风险。Taalas宣称新模型流片仅需两个月,可在AI行业,两个月足以完成一轮技术洗牌。Bajic坦言,这条路无人涉足,正是因为AI迭代太快、风险太高。其商业模式要求客户承诺一年内不更换模型,以摊平定制成本——在大模型军备竞赛的当下,几乎没有企业敢给出这样的承诺。
除了过时风险,HC1还面临智能质量的妥协。为将80亿参数集成于单芯片,它采用激进的3-bit量化,虽能压缩体积,却带来明显的效果损失。实测显示,芯片输出速度极快,但面对复杂逻辑问题时错误率偏高。这也抛出一个核心问题:AI推理的终极追求,究竟是极致速度,还是可靠的智能质量?
Taalas的出现,本质是AI芯片路线的终极分野。
通用派坚信,可编程、软件友好的平台,才能适配未知的未来。而专用派则豪赌:AI模型终将走向收敛,届时效率将远重于灵活性。有人将这种硬件固化类比人脑:人类大脑的神经连接高度特化,多数人终身使用一种语言、专注一项工作,本质也是“固化模型”。在云端需要全能通用的同时,工业质检、智能家居等垂直场景,恰恰需要低成本、低功耗、高稳定的专用AI。
24人的“梦之队”,以极致专用化向现有格局发起冲锋。成,则开启低功耗AI的新可能;败,也将成为技术史上一次勇敢而浪漫的探索。无论结局如何,Taalas已经证明:在英伟达的霸权之外,AI芯片仍有狂野且充满想象的未来。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.