15美元,AI科学家一篇论文的全部成本
论文,是科学家证明自己存在和权威最直接的方式之一。
而这一次,从选题,到查文献,到跑实验,到写论文,全程没有任何人类参与,一个AI系统自己完成的。
投进了ICLR(全球AI领域)的学术研讨会,三位匿名评审打分6、7、6,平均6.33分。
比55%的人类作者分数还高。
这个系统叫The AI Scientist,Sakana AI联合牛津大学和英属哥伦比亚大学开发。
2026年3月26日,相关论文正式登上Nature正刊。
它是怎么工作的
给一个大方向,它就像个偏执狂研究生。
先用Semantic Scholar API把全网文献扫一遍,确认“没人做过”。
再用进化算法疯狂头脑风暴,一口气生成几十个新点子。
选定一个,立刻自己写代码、跑实验、debug。数据出来了,让视觉大模型画图、自己排LaTeX,引言、方法、结果、讨论,一个不少。
最后还启动内置的AI审稿人,给自己打分。低于阈值,直接枪毙,换下一个选题重来。
整个过程,没有一个人碰键盘。
研究团队把这四步总结得很直白:构想、实验、撰写、评审。
博士生也就这四步。只是博士生的四步,动辄三五年。
15美元是什么概念
生成一篇论文的计算成本只有15美元左右。一顿饭的钱,出一篇能通过专家评审的学术论文。
有意思的是,通过评审之后,论文主动撤回了。
因为团队和研讨会事先有协议:提交只是测试系统能不能过关,不占公用论文位置(你品)。
![]()
它的缺陷,人类评审也没发现
研究团队在Nature里一条一条列出了所有缺陷,没有任何遮掩。
- 它会编参考文献。不是引用真实论文,是直接虚构一个看起来像论文的条目。
- 同一张图,有时候会在附录里贴两次。
- 研究想法偶尔很浅,像刚入门的人在头脑风暴。
- 代码有bug,调了半天逻辑层面还有问题。
但问题是——这些缺陷,人类评审没有发现。
或者说,发现了,但扣掉这些分,它还是比55%的人类作者强。
严谨的科学论文评审机制,第一次被人拿15美元的东西刺穿了。
![]()
科研扩展定律:模型越强,论文越好
不出意料的,用不同底层模型跑同一个系统,模型越强,产出越好,看不到天花板。他们给这个规律起了个名字:科研扩展定律。
翻译过来就是,只要模型还在变强,AI写的论文就会一直变好。
![]()
两年前大家说AI做不了数学推理!一年前说AI拿不到国际数学奥赛金牌!现在,它已经成为科学家,在写论文,而且写得比一半的人类好。
“现在做不到”这句话,好像越来越适用AI了。
![]()
伦理追问:出了问题谁负责
如果一篇论文是AI全程写的,评审没有发现,最终发表了,后来出了错,谁负责?
作者栏上没有真实人的名字,算谁的?
评审给了一个高分,但评审也不知道自己审的是AI写的稿子,评审的责任算不算?
学术圈这套“同行评审”的信任机制,已经有一块开始松动了。
科研这件事,可能在我们看不见的地方,正在变成另一种东西。
不是说它会消失,但那个“靠脑子、靠时间、靠运气,最终把想法变成人类共识”的过程,有一部分正在被15美元取代。
如果明年Nature上有一半论文是AI写的,科学家该慌了吧?
参考来源
- Sakana AI官方博客(2026-03-26):https://sakana.ai/ai-scientist-nature/
- Nature原文(2026-03-26):https://www.nature.com/articles/s41586-026-10265-5
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.