![]()
190家创业公司,两天Demo Day,全部押注同一个赌局:AI不是未来,是此刻的入场券。
Y Combinator 2026冬季批次的数据出来了——近190家公司参展,覆盖法律、交通、医疗,几乎每个角落都有AI代理在重写工作流。我花了两天刷完所有 pitch 视频,挑出16个真正值得盯紧的项目。筛选标准很粗暴:要么解决了一个被忽视的基础设施问题,要么正在制造新的数据护城河。
ARC Prize Foundation:给AGI出考卷的非营利组织
YC批次里混进一个非营利机构,这事本身就不寻常。
ARC Prize Foundation 不做产品,只出考题——专门设计基准测试来衡量通用人工智能(AGI,Artificial General Intelligence)的进展。OpenAI、Anthropic、Google DeepMind 已经在用他们的测试集。英伟达CEO黄仁勋去年放话"AGI已经到来",但历史需要一把尺子。这个基金会通过办竞赛、发研究经费,试图把AGI的进度条变成可公开验证的数据。
当所有人都在造更猛的模型时,有人在造更狠的评分表——这才是开源社区真正缺的基础设施。
![]()
非营利身份让它避开了估值游戏的干扰,但也意味着它必须持续证明:自己的测试比竞争对手更能预测模型的真实能力。目前看来,大厂们的采用就是最有力的背书。
Asimov:你的走路姿势值多少钱
人形机器人赛道缺的不是电机和传感器,是训练数据——真实人类怎么弯腰、怎么保持平衡、怎么在打滑的地面上调整重心。
Asimov 的解法很直接:向全球征集人体运动视频。用户上传自己完成任务的动作录像,公司把这些转化成结构化数据集,卖给机器人公司做训练燃料。这本质上是在搭建人形机器人的"ImageNet时刻"——当年计算机视觉爆发,靠的是大规模标注图片;现在具身智能要突破,需要的是大规模标注动作。
商业模式的狡猾之处在于双边网络效应。更多视频吸引更多买家,更多买家刺激更多投稿。但隐私红线也很清晰:人脸可以打码,步态特征却几乎无法匿名化——每个人的走路姿势都是生物识别指纹。
这家公司真正的产品不是数据集,是"人类运动"这门语言的词典编纂权。
![]()
剩下的14家分布在不同切口:有的在做法律文件的自动拆解,有的试图用AI代理重构货运调度,有的在医疗影像里找早期癌症信号。共同点是都避开了"做个ChatGPT wrapper"的陷阱,转而去啃产业链里那些又脏又累的环节。
YC这批次的密度感,来自一个被验证的共识:基础模型层已经卷成红海,真正的机会在应用层的数据闭环——谁能在垂直场景里持续积累别人拿不到的数据,谁就能在下一次模型迭代时获得不对称优势。
Demo Day的格式今年变了,没有直播,没有现场媒体席,pitch视频延迟20分钟上传。这种"异步披露"让信息传播更可控,也让筛选成本更高——你得真的去刷那190个视频,而不是等 Twitter 上的热点总结。
我刷完的感受是:AI创业正在从"演示惊艳"进入"交付枯燥"的阶段。最性感的公司不再是那个能生成最漂亮图片的,而是那个能让律师事务所少雇三个初级助理、让卡车调度员每天少打20通电话的。
ARC Prize 的测试集会被写进AGI发展史吗?Asimov 的数据集会成为机器人行业的默认基础设施吗?这些问题没有答案,但YC显然在押注:衡量进步的人,和收集燃料的人,比造引擎的人更接近终局。
下一个批次,会不会有人专门给AI代理设计"职场生存测试"——测的不是智商,是搞砸任务后怎么甩锅给人类同事?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.