当北京大学信息科学技术学院2017级罗福莉校友的名字与小米首个推理大模型“MiMo”联系在一起,并以通讯作者身份出现在一篇与北京大学联合署名的前沿论文中时,聚光灯再次投向了这位年轻的科研工作者。
人们惊叹于她的履历,习惯性地赋予她“天才少女”的光环,期待看到一个天赋异禀的传奇故事。然而,面对外界的赞誉与好奇,罗福莉的选择是——“后退一步”。
她在朋友圈写下:
“请互联网还我一片安安静静做事的氛围吧……我只想安安静静做难而正确的事情。”
这句话轻柔却有力地推开了那些不真实的滤镜,也让我们看到了一个真实的北大科研人的底色:不迷信天赋,只相信坚韧;不追逐风口,只在这条通往智能真理的寂寞道路上,拥有一个普通人对于目标的执着,以及在无数次试错中积攒出的坚韧。
从燕园实验室里那些为代码苦恼的日夜,到如今在工业界万卡集群前的运筹帷幄,她向我们讲述了属于她的“破题”之路——那不仅仅是关于技术的突破,更是一位北大校友如何在日新月异的科技浪潮中,守住内心,寻找确定的答案。
01
祛魅:把失败排除掉,剩下的就是运气
能在年纪轻轻便执掌大模型核心研发的人物,大众往往倾向于相信他们拿着“天选之子”的剧本。但罗福莉对“天才少女”这个标签表现出了近乎本能的排斥。
“这类标签是为了吸引注意力而创造的刻板印象,”罗福莉的语气平静却坚定,“它粉饰了科研过程中真正的努力、坚韧和全心投入,暗示成功是天生的。”
剥离掉这些光环,她的成长轨迹朴素而扎实。小城出生,如果要说有什么不同,那就是父母从小给予的那种“不设限”的教育观——鼓励她设定高目标,并勇于挑战。这种底色,让她在后来面对科研深水区时,拥有了比常人更强的耐受力。
她最初的研究兴趣落点于自然语言处理(NLP)中一个非常细分的领域——词义消歧。但随着大模型技术的兴起,她敏锐地发现:传统消歧任务的本质正被大模型的“下一个词预测”范式所覆盖。这种基于技术底蕴的超前预判,促使她果断将重心转向文本生成,而这在本质上与GPT系列大模型的核心任务高度一致。也正是这段对语言概率分布建模的经验,让她进入工业界后,自然地踏上了大模型的研究旅程。
“做难而正确的事”,这句话现在挂在很多人的嘴边,但对罗福莉而言,这是她科研逻辑的基石,更是一种关于“失败”的哲学。
在罗福莉的记忆中,早期的科研探索充满了在理论与现实间挣扎的窒息感。2017年,当她将研究重心转向文本生成后,直面的第一个挑战是验证一个直觉上可行的idea所需的全栈能力。从亲手搭建GPU集群、到从零手撸训练框架,每一个环节都横亘着难以逾越的鸿沟。“那时候太痛苦了,”她回忆道,“任何一个细节的疏忽都可能导致推倒重来,没有多少现成的工具可以依赖。”
这段经历,无意中成为了她科研生涯最深刻的启蒙:科研不是飘在空中的理论,而是由无数细节夯实的工程;决定成败的,往往就是那些最不起眼的角落。这种对细节的极致苛求,也成为了她日后在大模型研发中,能够精准把控复杂系统的关键。
![]()
参加EMNLP2018
加入阿里达摩院后,她曾参与训练千亿参数模型。那是中国科技公司最早尝试挑战超大规模语言模型的时期。在工业界,算力不再是几张卡,而是成千上万张卡的集群。这给了她前所未有的野心。“既然GPT-3是千亿参数,如果我们把模型参数扩大,智能水平会怎样?”这是一个极具诱惑力的问题。
然而,现实给了她当头一棒。
那是她职业生涯中的第一次“滑铁卢”。当时他们首次尝试训练175B(1750亿)参数的模型,结果是痛苦的——模型“又大又笨拙”,训练失败了。“这是一次失败的经历。”罗福莉坦诚地复盘。
当时团队只关注了ScalingLaw(缩放定律)中的参数规模,却忽视了数据质量的清洗,也缺乏高效的训练框架。模型空有庞大的躯壳,却由于“喂”进去的数据良莠不齐,导致智能水平远未达标。她开始反思:大模型这条路,真的走得通吗?面对问题,她选择战略性静止,转向确定性更强的量化研究,继续在需要大量算力的场景下,验证自己的研究想法。
转机出现在ChatGPT横空出世之后。那两年的蛰伏,实际上是整个行业的蓄力期。当她加入DeepSeek(深度求索)时,所有的失败经验都转化为了宝贵的资产。她开始重新审视科学的研究路径:如何精准地Scaling参数与数据?如何设计高效的训练架构?
“在DeepSeek的那段经历,是一次重大的转折。”罗福莉说。这一次,曾经让她窒息的“全栈”磨砺,全部转化为了精准的判断力。她不再需要从零手撸一切,而是带着在无数次失败中淬炼出的对数据质量、训练框架的深刻理解,精准地避开了每一个曾让她跌倒的深坑。当工业界的万卡算力在她面前铺开时,她终于能将那些在学校里因资源匮乏而无法触及的宏大假设,一一付诸验证。“从学术界的验证,到工业界的作战”,罗福莉完成了从一名学生到科学家的蜕变。
在罗福莉看来,失败并不是无意义的归零,而是一种必然的“成本”。“失败尤其能帮助你排除错误路径,积累运气。”她把科研看作是一个巨大的探索空间,如果你选择了一个折中的、简单的问题,一旦技术风口过去,所有的努力都会随之消散;但如果你选择了一个本质的、困难的问题,那么在这个过程中,每一个错误的尝试都是宝贵的“训练数据”,都在增加最终找到正确解的概率。
“我不是天才,”罗福莉再次强调,“我的起点很普通,是对本质问题探索的好奇心、不错的行动力以及一点点不服输的韧劲,才一步步走到今天。”
02
实验室有一个“黄金位置”:被自由托举的浪漫与严谨
“北大自由的科研环境让我受益匪浅。”这种自由,不是散漫,而是一种精神上的舒展。在北大计算语言所,不同方向的研究者常常在走廊里、在去食堂的路上,因为一个突发的灵感而展开激烈的讨论,然后立刻跑回实验室做实验。这种“即兴爵士乐”般的科研氛围,在她心中种下了创新的种子。
对罗福莉影响至深的,是她的导师穗志方教授。在学术界,发表论文往往是衡量成败的一项硬指标。但在罗福莉刚入门、最迷茫的阶段,穗志方老师给予了她更多的人文关怀。
![]()
罗福莉与导师的日常互动
“她更关注我的研究状态,而非急于出成果。”罗福莉感叹道。在那些因为实验数据跑不通而“以泪洗面”的日子里,导师的共情力成为了支撑她走下去的力量。这种关怀让罗福莉明白,科研不只是冰冷的逻辑推演,背后是人的心智与情感的磨砺。北大带给她的,还有最早的“协作启蒙”。大模型研究是一项系统工程,而在北大的实验室里,她初次体会到了Teamwork(团队协作)的力量:有同学擅长搭建GPU集群,有人专攻算法,大家各展所长。
罗福莉指着老照片里实验室的一个角落笑着说:“这就是当时整个屋子最‘黄金’的位置,因为导师进来看不到你的屏幕。”那个角落里藏着的,不只是偶尔“摸鱼”的惬意,更有独属于科研人的浪漫。松弛、鲜活的青春记忆,在自由的风里被温柔托住的感觉,即便在多年后,依然是她面对压力时最坚实的精神避风港。
如今,这里坐着的师弟师妹,但大家讨论的话题,已经从当年的具体任务,升级到了AGI(通用人工智能)的最前沿。虽然罗福莉对自己的某些具体论文成果保持着严苛的审视,但她却非常乐意与师弟师妹们探讨未来的方向,遇到同师门的师弟研究的新方向,甚至主动交流请教。
“现在的AI,正在深刻重构我们做科研的方式。”在实验室里,罗福莉兴奋地和师弟师妹们分享她在产业一线的实践与观察。她提到,全新一代的大模型,已经不只是工具,它甚至能启发人类的灵感。
“未来,大模型可能会自己写代码、自己跑实验、自己分析结果,甚至自我迭代。”罗福莉对年轻的后辈们说,“技术的迅猛发展,也对我们提出了更高的要求——我们需要比AI更聪明,去定义问题,而不是单纯地解题。”
在这个小小的实验室里,她与同组师弟师妹们达成了某种共识:强化学习(ReinforcementLearning)将是通往AGI的关键钥匙。它不仅仅是训练手段,更是让AI在与环境交互中进化出“空间智能”的必经之路。这种跨越届别的共鸣,让人看到了北大科研人的群像——他们不是一个个孤独的“天才”,而是一群在追求极致智能道路上,互相激发、接力奔跑的“破题者”。
03
远望:像婴儿一样去理解世界
“学界和工业界做研究有本质的区别。”罗福莉这样说。学界往往将大问题拆解为精致的子问题;而工业界拥有万卡算力和跨领域的团队,能以更宏观、更整体的视角去“暴力美学”地验证大规模智能。当然,这并不是说学术素养在工业界不重要。恰恰相反,罗福莉正在做的,就是用学术的严谨去驯服工业界的“狂野”。
2025年2月,她以通讯作者身份,联合小米与北京大学发表一篇聚焦MoE与强化学习的论文。“我关注的核心问题往往足够困难、需要大量算力资源、需要特定的研究文化和环境。破题者意味着挑战难题,这正是我科研路径上一直追求的方向。”她的目光,始终停留在比当下更远一点的地方。
回到母校,和师弟师妹们漫步未名湖边交流时,他们偶遇了一位在家人陪同下好奇张望的婴儿宝宝,罗福莉顺势谈起了一个极具哲学意味的对比——“婴儿与AI”。
“一个小宝宝,哪怕只有一岁,还不会说话,但他能通过眼神的交流,精准地判断父母的意图,是对他的肯定还是否定。”她比划着,眼中闪烁着思考的光芒,“这种‘眼力见儿’,这种基于直觉和交互的感知力,是目前最强大的大模型都做不到的。”
在她看来,目前的模型做的是“1-100”的事,它通过海量的文本阅读,学会了语言,得到了解题、编程等不同方面的能力,但却缺乏对物理世界最本能的、“0-1”的感知。它无法产生直觉判断,不懂情绪,不懂人与人之间微妙的气场。
“但是,大模型不能只活在语言里,它需要回到智能的原点。”这就是罗福莉眼中AGI的下一个“无人区”:从语言智能走向世界模型(WorldModels)。
不久前,罗福莉作为XiaomiMiMo大模型负责人身份登台亮相,和来自全世界各地的开发者们,分享了团队最新成果。XiaomiMiMo-V2-Flash通过创新训练范式与结构优化,构建了一套兼具高效与性能的训练体系:采用5:1的SlidingWindowAttention(SWA)与GlobalAttention(GA)混合架构,引入Multi-TokenPrediction(MTP)推理加速训练以打破显存带宽瓶颈,提出Multi-TeacherOn-PolicyDistillation(MOPD)后训练范式,仅需传统SFT+RL流程1/50的计算资源即可优化学生模型,同时通过训推Infra深度融合,实现了训练与推理的协同优化。
![]()
作为XiaomiMimo大模型生态负责人亮相发布会
目前,模型权重(MIT协议)、推理代码已在HuggingFace和SGLang开源,技术报告同步发布,API限时免费开放且Web体验平台上线,支持一键接入多种开发框架。罗福莉相信“智能终将从语言走向物理世界。”在后续的发展中,XiaomiMiMo大模型也将在小米“人-车-家”生态中完成更多落地、覆盖。
对于未来的智能体,她设想应该能够像人类婴儿一样,通过与物理世界的交互(Interaction)、观察和反馈来学习。它不仅能预测下一个单词(NextTokenPrediction),更能预测未来的画面,预测物理世界的演变。这种对本质的执着,也延伸到了她对人生坐标的定义上。
“如果未来十年要罗福莉书写自己的人生故事,标题会是什么?”沉思之后,她给出了一个非常宏大却又质朴的愿景:“比起写书,我更关注未来10年能做的有价值的研究。我特别希望参与提升中国科学研究能力,让中国科研站上世界中央舞台。”
在她眼中,这是一代人的幸运,也是一代人的宿命。从规则系统到神经网络,再到如今的大模型浪潮,时代的红利将算力变成了智力的放大器。“探索空间越大,找到正确解的概率就越高。”她深知,中国青年科研工作者不应只做跟随者,而应有勇气成为那个定义问题、解决问题的“破题者”。
在这个能让每个人都有机会挑战本质性问题的时代,罗福莉选择了那条“难而正确”的路。她不急于到达终点,因为她知道,在通往真理的路上,每一步扎实的脚印,都比虚幻的光环更值得被铭记。
![]()
(朱成轩 摄)
编者按
并不是所有的潮水都流向同一个方向,但北大人习惯站在最前沿。当前,新一轮科技革命和产业变革突飞猛进,人工智能已成为重塑全球竞争格局的关键力量。我们推出北大ai校友访谈栏目「弄潮」,旨在记录这一代北大人在AI科技变革中的关键抉择。是随波逐流,还是中流击水?这份答卷,写在祖国的大地上,也写在时代的浪尖上。
来源:北大人
统筹 | 邱放、祖枫
文字 | 邱放、张祺祺
图片 | 朱成轩
审核 | 李存峰 陈波
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.