TL;DR:
谁说进OpenAI必须得有PhD?小哥Keller Jordan告诉你:只要你的代码够硬、博客够干,大佬自会顺着网线来找你。别再纠结论文数量了,搞快点,把训练成本打到8美元,全世界都会为你转身!
在AI圈,简历的“含金量”通常是靠博士学位和顶刊论文堆出来的。如果你只有本科学位,且论文发表数为零,想进OpenAI这种顶级实验室?HR可能连简历都懒得看。
但最近,OpenAI的研究员、德扑AI之父Noam Brown在X上亲手“拆”了这个潜规则。他爆料称,一位名叫Keller Jordan的小哥,仅凭几篇开源博客和一系列亮眼的实验数据,就成功入职OpenAI担任机器学习研究员1。
这个消息一出,直接让无数在读PhD破防:合着我这几年的发胶和头发都白牺牲了?
技术大揭秘:这8美元的实验,到底贵在哪?
Keller Jordan的成名作是一个名为**「NanoGPT speed run」**的项目。
简单来说,这事儿的起因是特斯拉前AI负责人、AI圈“厨神”Andre Karpathy开源了一个极简的GPT训练框架NanoGPT。Keller小哥没想什么宏大叙事,他只专注于一件事:卷速度。
他不断刷新训练Transformer模型的Token效率,最后硬生生把效率提升了3.8倍。最让圈内人震惊的不是数据本身,而是他设计实验的“脑回路”:
- 极致精简:代码只有537行,甚至能跑在8×H100的“乞丐版”配置下。
- 白菜价成本:单次尝试的算力成本低至8美元。
- 不可作弊:每个log文件都包含代码副本,任何人想复现只需一键操作。
“在动辄烧掉几百万美金的AI科研界,Keller像是在法拉利赛道上骑着一辆改装过的二八大杠,还顺便超了车。”
这种把实验成本降到“人人可参与”的独创性,直接让Karpathy本人在社交平台上狂刷“Awesome”。这种可量化、可验证的“硬核成果”,成了他敲开OpenAI大门的敲门砖1。
行业“地震”:与其灌水论文,不如直接“开卷”
如果说NanoGPT speed run是开胃菜,那么他后来推出的Muon优化器就是正餐了。
在AI训练中,AdamW一直是“稳如老狗”的班长,但随着模型变大,这位班长也有点跑不动了。Keller设计的Muon优化器,核心逻辑是通过Newton-Schulz迭代对更新矩阵进行正交化处理。听起来很高深?通俗点说,就是给神经网络的参数更新换了个“流线型外壳”,让它在同样的资源下学得更快。
结果就是: Muon在多个任务中表现惊艳,刷新了多项训练纪录。
有趣的是,Keller在入职OpenAI后表现得非常“有个性”。他直言,虽然Muon火了,但他并不打算写论文。在他看来,现在的arXiv上充斥着大量的“虚假水文”,与其费劲巴拉写一篇会被淹没在故纸堆里的论文,不如老老实实优化代码。
“这种‘论文无用论’的底气,正是来自那些可以直接复现的代码仓。在顶级大佬眼里,能跑通的代码比华丽的排版更有说服力。”
未来预测:下一个“风口”是属于行动派的?
Noam Brown在分享中还顺带提到了其他几位“逆袭者”:
- Sholto Douglas:在麦肯锡工作时,靠在Jax的GitHub上提问打动了DeepMind大佬,现在是Gemini背后的关键人物1。
- Andy Jones:作为一名半退休的量化分析师,靠着严谨的消融实验和GPU加速环境设计,入职了Anthropic1。
这些案例传达了一个极其明确的信号:AI领域的“人才准入门槛”正在发生微妙的漂移。学历固然是敲门砖,但“能解决实际问题的开源贡献”已经变成了直通特快的月票。
顶级实验室不再仅仅盯着你毕业于哪所学校,而是在看你的GitHub提交记录、你的代码逻辑,以及你是否能在有限的算力下玩出花儿来。
所以,别再对着空白的Word文档憋论文了,少年。不如去GitHub开个仓,万一哪天OpenAI的大佬就顺着Star爬到你的主页了呢?
引用
-
OpenAI大佬爆料:本科生靠一篇博客杀进OpenAI,没博士,0篇论文 · 36氪/新智元 · 新智元 (2026/2/25) · 检索日期2026/2/25 ↩︎ ↩︎ ↩︎ ↩︎