斧头之人打一个生肖
来源:【北京大学】
不久前
她以小米MiMo大模型负责人的身份登台亮相
在圈内掀起一波热度
人们习惯性地赋予她
95后AI天才少女的标签
她却自称低起点者
从四川宜宾第一中学到北京师范大学
再到保研北京大学
她并不是拔尖的学生
但她始终带着一股不服输的顽强精神
面对外界的赞誉与好奇
励打一个生肖
她的选择是——后退一步
在朋友圈写下
请互联网还我一片安安静静做事的氛围吧……
只想安安静静做难而正确的事情。
从燕园实验室里那些为代码苦恼的日夜
到如今在工业界万卡集群前的运筹帷幄
北大信息科学技术学院2017级校友罗福莉
讲述了自己的破题之路——
不仅是关于技术的突破
更是一位北大人如何在
日新月异的科技浪潮中
守住内心,寻找确定的答案
把失败排除掉,剩下的就是运气
能在年纪轻轻便执掌大模型核心研发的人物,大众往往倾向于相信他们拿着天选之子的剧本。但罗福莉对天才少女这个标签表现出了近乎本能的排斥。
这类标签是为了吸引注意力而创造的刻板印象,罗福莉的语气平静却坚定,它粉饰了科研过程中真正的努力、坚韧和全心投入,暗示成功是天生的。
剥离掉这些光环,她的成长轨迹朴素而扎实。
她通过一步步探索使学业名列前茅,甚至在走近学术的过程中成功拿到了北大的保研资格。进入北大,是罗福莉人生中一次重要的转折点。她陆续向各大计算机科学期刊投出一篇篇文章。在频繁往返于图书馆与宿舍之间的道路上,她走到了黎明前的黑暗,研究生二年级是我最忙的一年,那时候除了写代码、上课,几乎什么都不去想,她如此回忆。而幸运的是,这一年,也是她的收获之年——在人工智能领域顶级国际会议ACL上发表8篇论文(其中2篇为第一作者)。
面对科研深水区时,罗福莉这种比常人更强的耐受力,其实来自于父母从小给予的不设限的教育观——鼓励她设定高目标,并勇于挑战。
罗福莉与父亲合影
罗福莉最初的研究兴趣落点于自然语言处理(NLP)中一个非常细分的领域——词义消歧。但随着大模型技术的兴起,她敏锐地发现:传统消歧任务的本质正被大模型的下一个词预测范式所覆盖。这种基于技术底蕴的超前预判,促使她果断将重心转向文本生成,而这在本质上与GPT系列大模型的核心任务高度一致。也正是这段对语言概率分布建模的经验,让她进入工业界后,自然地踏上了大模型的研究旅程。
做难而正确的事,这句话现在挂在很多人的嘴边,但对罗福莉而言,这是她科研逻辑的基石,更是一种关于失败的哲学。
在罗福莉的记忆中,早期的科研探索充满了在理论与现实间挣扎的窒息感。2017年,当她将研究重心转向文本生成后,直面的第一个挑战是验证一个直觉上可行的idea所需的全栈能力。从亲手搭建GPU集群、到从零手撸训练框架,每一个环节都横亘着难以逾越的鸿沟。那时候太痛苦了,她回忆道,任何一个细节的疏忽都可能导致推倒重来,没有多少现成的工具可以依赖。
这段经历,无意中成为了她科研生涯最深刻的启蒙:科研不是飘在空中的理论,而是由无数细节夯实的工程;决定成败的,往往就是那些最不起眼的角落。这种对细节的极致苛求,也成为了她日后在大模型研发中,能够精准把控复杂系统的关键。
参加国际计算语言学学会(ACL)
参加2019年自然语言处理经验方法会议(EMNLP)
加入阿里达摩院后,她曾参与训练千亿参数模型。那是中国科技公司最早尝试挑战超大规模语言模型的时期。在工业界,算力不再是几张卡,而是成千上万张卡的集群。这给了她前所未有的野心。既然GPT-3是千亿参数,如果我们把模型参数扩大,智能水平会怎样?这是一个极具诱惑力的问题。
然而,现实给了她当头一棒。
那是她职业生涯中的第一次滑铁卢。当时他们首次尝试训练175B(1750亿)参数的模型,结果是痛苦的——模型又大又笨拙,训练失败了。这是一次失败的经历。罗福莉坦诚地复盘。
当时团队只关注了ScalingLaw(缩放定律)中的参数规模,却忽视了数据质量的清洗,也缺乏高效的训练框架。模型空有庞大的躯壳,却由于喂进去的数据良莠不齐,导致智能水平远未达标。她开始反思:大模型这条路,真的走得通吗?面对问题,她选择战略性静止,转向确定性更强的量化研究,继续在需要大量算力的场景下,验证自己的研究想法。
阿里分享
泥鳅十二生肖打一个生肖
转机出现在ChatGPT横空出世之后。那两年的蛰伏,实际上是整个行业的蓄力期。当她加入DeepSeek(深度求索)时,所有的失败经验都转化为了宝贵的资产。她开始重新审视科学的研究路径:如何精准地Scaling参数与数据?如何设计高效的训练架构?
在DeepSeek的那段经历,是一次重大的转折。罗福莉说。这一次,曾经让她窒息的全栈磨砺,全部转化为了精准的判断力。她不再需要从零手撸一切,而是带着在无数次失败中淬炼出的对数据质量、训练框架的深刻理解,精准地避开了每一个曾让她跌倒的深坑。当工业界的万卡算力在她面前铺开时,她终于能将那些在学校里因资源匮乏而无法触及的宏大假设,一一付诸验证。从学术界的验证,到工业界的作战,罗福莉完成了从一名学生到科学家的蜕变。
在罗福莉看来,失败并不是无意义的归零,而是一种必然的成本。失败尤其能帮助你排除错误路径,积累运气。她把科研看作是一个巨大的探索空间,如果你选择了一个折中的、简单的问题,一旦技术风口过去,所有的努力都会随之消散;但如果你选择了一个本质的、困难的问题,那么在这个过程中,每一个错误的尝试都是宝贵的训练数据,都在增加最终找到正确解的概率。
我不是天才,罗福莉再次强调,我的起点很普通,是对本质问题探索的好奇心、不错的行动力以及一点点不服输的韧劲,才一步步走到今天。
被自由托举的浪漫与严谨
北大自由的科研环境让我受益匪浅。这种自由,不是散漫,而是一种精神上的舒展。在北大计算语言所,不同方向的研究者常常在走廊里、在去食堂的路上,因为一个突发的灵感而展开激烈的讨论,然后立刻跑回实验室做实验。这种即兴爵士乐般的科研氛围,在她心中种下了创新的种子。
对罗福莉影响至深的,是她的导师穗志方教授。在罗福莉刚入门、最迷茫的阶段,穗志方老师给予了她许多的人文关怀。
她更关注我的研究状态,而非急于出成果。罗福莉感叹道。在那些因为实验数据跑不通而以泪洗面的日子里,导师的共情力成为了支撑她走下去的力量。这种关怀让罗福莉明白,科研不只是冰冷的逻辑推演,背后是人的心智与情感的磨砺。北大带给她的,还有最早的协作启蒙。大模型研究是一项系统工程,而在北大的实验室里,她初次体会到了团队协作的力量:有同学擅长搭建GPU集群,有人专攻算法,大家各展所长。
罗福莉(后排左二)与导师穗志方教授(前排右二)合影
罗福莉指着老照片里实验室的一个角落笑着说:这就是当时整个屋子最‘黄金’的位置,因为导师进来看不到你的屏幕。那个角落里藏着的,不只是偶尔摸鱼的惬意,更有独属于科研人的浪漫。松弛、鲜活的青春记忆,在自由的风里被温柔托住的感觉,即便在多年后,依然是她面对压力时最坚实的精神避风港。
如今,这里坐着的师弟师妹,但大家讨论的话题,已经从当年的具体任务,升级到了AGI(通用人工智能)的最前沿。虽然罗福莉对自己的某些具体论文成果保持着严苛的审视,但她却非常乐意与师弟师妹们探讨未来的方向,遇到同师门的师弟研究的新方向,甚至主动交流请教。
现在的AI,正在深刻重构我们做科研的方式。在实验室里,罗福莉兴奋地和师弟师妹们分享她在产业一线的实践与观察。她提到,全新一代的大模型,已经不只是工具,它甚至能启发人类的灵感。
未来,大模型可能会自己写代码、自己跑实验、自己分析结果,甚至自我迭代。罗福莉对年轻的后辈们说,技术的迅猛发展,也对我们提出了更高的要求——我们需要比AI更聪明,去定义问题,而不是单纯地解题。
在这个小小的实验室里,她与同组师弟师妹们达成了某种共识:强化学习(ReinforcementLearning)将是通往AGI的关键钥匙。它不仅仅是训练手段,更是让AI在与环境交互中进化出空间智能的必经之路。这种跨越届别的共鸣,让人看到了北大科研人的群像——他们不是一个个孤独的天才,而是一群在追求极致智能道路上,互相激发、接力奔跑的破题者。
像婴儿一样去理解世界
学界和工业界做研究有本质的区别。罗福莉这样说。学界往往将大问题拆解为精致的子问题;而工业界拥有万卡算力和跨领域的团队,能以更宏观、更整体的视角去暴力美学地验证大规模智能。当然,这并不是说学术素养在工业界不重要。恰恰相反,罗福莉正在做的,就是用学术的严谨去驯服工业界的狂野。
2025年2月,她以通讯作者身份,联合小米与北京大学发表一篇聚焦MoE与强化学习的论文。我关注的核心问题往往足够困难、需要大量算力资源、需要特定的研究文化和环境。破题者意味着挑战难题,这正是我科研路径上一直追求的方向。她的目光,始终停留在比当下更远一点的地方。
回到母校,和师弟师妹们漫步未名湖边交流时,他们偶遇了一位在家人陪同下好奇张望的婴儿宝宝,罗福莉顺势谈起了一个极具哲学意味的对比——婴儿与AI。
一个小宝宝,哪怕只有一岁,还不会说话,但他能通过眼神的交流,精准地判断父母的意图,是对他的肯定还是否定。她比划着,眼中闪烁着思考的光芒,这种‘眼力见儿’,这种基于直觉和交互的感知力,是目前最强大的大模型都做不到的。
在她看来,目前的模型做的是1-100的事,它通过海量的文本阅读,学会了语言,得到了解题、编程等不同方面的能力,但却缺乏对物理世界最本能的、0-1的感知。它无法产生直觉判断,不懂情绪,不懂人与人之间微妙的气场。
但是,大模型不能只活在语言里,它需要回到智能的原点。这就是罗福莉眼中AGI的下一个无人区:从语言智能走向世界模型(WorldModels)。
不久前,罗福莉作为XiaomiMiMo大模型负责人身份登台亮相,和来自全世界各地的开发者们,分享了团队最新成果。XiaomiMiMo-V2-Flash通过创新训练范式与结构优化,构建了一套兼具高效与性能的训练体系:采用5:1的SlidingWindowAttention(SWA)与GlobalAttention(GA)混合架构,引入Multi-TokenPrediction(MTP)推理加速训练以打破显存带宽瓶颈,提出Multi-TeacherOn-PolicyDistillation(MOPD)后训练范式,仅需传统SFT+RL流程1/50的计算资源即可优化学生模型,同时通过训推Infra深度融合,实现了训练与推理的协同优化。
目前,模型权重(MIT协议)、推理代码已在HuggingFace和SGLang开源,技术报告同步发布,API限时免费开放且Web体验平台上线,支持一键接入多种开发框架。罗福莉相信智能终将从语言走向物理世界。在后续的发展中,XiaomiMiMo大模型也将在小米人-车-家生态中完成更多落地、覆盖。
作为Xiaomi Mimo大模型生态负责人,亮相发布会
对于未来的智能体,她设想应该能够像人类婴儿一样,通过与物理世界的交互(Interaction)、观察和反馈来学习。它不仅能预测下一个单词(NextTokenPrediction),更能预测未来的画面,预测物理世界的演变。这种对本质的执着,也延伸到了她对人生坐标的定义上。
如果未来十年要罗福莉书写自己的人生故事,标题会是什么?沉思之后,她给出了一个非常宏大却又质朴的愿景:比起写书,我更关注未来10年能做的有价值的研究。我特别希望参与提升中国科学研究能力,让中国科研站上世界中央舞台。
在她眼中,这是一代人的幸运,也是一代人的宿命。从规则系统到神经网络,再到如今的大模型浪潮,时代的红利将算力变成了智力的放大器。探索空间越大,找到正确解的概率就越高。她深知,中国青年科研工作者不应只做跟随者,而应有勇气成为那个定义问题、解决问题的破题者。
在这个能让每个人都有机会挑战本质性问题的时代,罗福莉选择了那条难而正确的路。她不急于到达终点,因为她知道,在通往真理的路上,每一步扎实的脚印,都比虚幻的光环更值得被铭记。
时代浪潮奔涌,北大人惯立潮头
聚焦AI变革
北京大学校友会推出
北大ai校友访谈栏目「弄潮」
持续记录这一代北大人的关键抉择
来源 |北京大学融媒体中心、北京大学校友工作办公室
编辑 |张祺祺
图片 |受访者提供、朱成轩
排版 |王俊晔
责编 |戴璐瑶
本文来自【北京大学】,仅代表作者观点。全国党媒信息公共平台提供信息发布传播服务。
ID:jrtt
抢膳打一个生肖













