Neel Nanda:26岁“传奇人物”的非常规AI之路与大厂反思

温故智新AIGC实验室

TL;DR:

Neel Nanda,这位26岁的DeepMind“传奇人物”,以其在AI安全和机械可解释性领域的卓越贡献而闻名,他颠覆传统、庆幸没有浪费五年读博,并对大型AI公司的研究效率提出深刻见解。他倡导实用主义、高效迭代,并以独特的“扩大幸运面积”法则激励着新一代AI研究者。

在人工智能浪潮席卷全球的当下,26岁的Neel Nanda无疑是一个异数,一个被同行冠以“传奇人物”的青年才俊。他没有博士学位,却在谷歌DeepMind带领着一支前沿研究团队,其在机械可解释性领域的开创性工作被广为引用,同时,他对AI行业的深层运作模式、传统学术路径的批判以及对AI安全的独特洞察,都使得他成为新一代AI思想领袖中不可忽视的存在。他的故事,不仅仅关乎个人的崛起,更折射出快速迭代的AI时代,对人才、组织和价值观的重新定义。

思想形成轨迹:从纯数到AI安全的“曲线救国”

Neel的职业生涯并非一帆风顺的直线。本科毕业于剑桥大学纯数学专业,他最初尝试了量化金融领域,在Jane Street和Jump Trading等公司实习,这是许多顶尖数学人才的常规去向。然而,内心深处对更深层意义的追寻让他感到不适。他发现:“这并不适合自己。”1 这份不适,成为他转向AI研究的最初萌芽。

转折点发生在疫情期间。原定的硕士计划受阻,而手头的量化金融offer也让他开始重新审视人生的可能性。当时他曾通过“有效利他主义”(EA)的咨询电话接触到AI安全领域,尽管最初对此心存疑虑,但一个念头开始在他脑海中盘旋:“如果我尝试做AI安全研究,结果发现很糟糕,那大不了就不做了。”1 这份实事求是、敢于试错的务实精神,是Neel Nanda人格特质中极为重要的一面。他不是被宏大叙事所裹挟,而是通过三次实习,亲自下场体验,才逐渐确信AI安全是一个“真实的问题,这里有有意义的研究工作可以做,而我也能胜任。”1

真正让他“爱上这个领域”的,是加入Anthropic成为早期员工,并在此过程中发现机械可解释性这一方向,它“既能带来影响力,又真的很有趣、很有智力刺激性。”1 这种对“影响力”与“智力刺激”并存的追求,是驱动他持续深耕的核心动力。

颠覆传统路径:博士的“五年之惑”

在Neel Nanda的职业叙事中,最引人注目的莫过于他对传统博士教育的犀利点评:“我没有在博士学位上浪费五年的时间(笑)。”1 这句话并非是对学术的否定,而是他对效率和实际影响力的极度看重。在他看来,博士学位应该被视为“学习和获取技能的环境”,如果能在行业内找到更好的学习与成长机会,那么“休学一年往往很容易,甚至可以退学。”1 这种打破常规的思考方式,在快速发展的AI领域尤为突出。

他甚至身体力行地劝说了一位优秀的博士生Josh Engels提前退学,加入他的DeepMind团队,并坚信这是“正确的选择。”1 Neel强调,导师指导是进入研究领域的关键,但“很多著名的博士导师反而是最糟糕的,因为他们太忙没时间指导你,或者因为他们本身是很好的研究者,但并不擅长耐心指导、关心培养别人、为你腾出时间。”1 他对那些为了个人利益,故意阻挠学生毕业的导师深恶痛绝,称之为“太可怕了,我非常鄙视这样的导师。”1 这份对公平和效率的执着,穿透了他对教育体制的批判。

“人们常犯的一个错误是‘必须读完博士’——这完全是错的。博士应该被视为‘学习和获取技能的环境’,如果有更好的机会,休学一年往往很容易,甚至可以退学。”1

他认为,行业研究与学术研究各有优劣:学术界自主权高但支持少,适合“制定新的研究议程、提出创新想法”;而行业则资源充足、能学到更多工程技能,且研究更贴近前沿模型。关键在于个体如何“管理你的导师或经理”——这是一种与研究能力截然不同的、却至关重要的技能。

大厂“内耗”与AI安全落地之道

作为DeepMind的团队负责人,Neel Nanda对大型AI公司的内部运作有着清醒甚至略显批判的认识。他指出,一个超过千人的大公司,绝非一个“高效市场”或单一意志的集合体,而是决策权分散、部门利益各异的“官僚化”体系12

“我原本也以为公司内部会类似:如果有能赚钱的机会,一定有人在推动;如果会赔钱,一定没人做。但现在我认为这是大错特错。”1

他观察到,在大型公司内部,尤其是在安全增值方面,很少有人专门寻找并修复“低效”——即那些显而易见的改进机会。机器学习研究者普遍存在的“解决今天的问题,不去预测未来的问题”的心态,加剧了这一现象。这意味着,如果安全团队不主动推动,很多机会即使大家并不反对,要么要等很久,要么根本不会发生。他将大型AI公司描述为某种意义上的“不平衡”状态,其发展方向往往取决于某些个人偏好,而非深思熟虑的统一规划1

为了在这样的环境中推动AI安全技术的落地,Neel总结了四个关键考量点:

  • 有效性:是否真正解决了大家关心的问题?
  • 副作用:会不会损害模型性能,如误判率。
  • 成本:运行和实现代价是否可接受。
  • 实现难度:能否无缝集成,减少其他团队的阻力1

他强调要在“当下人们关心的问题和长期安全价值之间找到交集”,通过“积累经验、优化成本、建立基础设施”,最终“直接提交一份PR”,让安全功能成为模型中不可或缺的一部分。

铸就高效研究者与“幸运面积”法则

Neel Nanda在过去四年中指导了约50名初级研究员,其中不乏如今在前沿AI公司或政府机构担任要职的佼佼者。他从亲身经历中提炼出成为一名优秀研究者的核心要素:

  • 编程能力:能够“粗糙但准确地完成任务”的代码实践能力。
  • 快速迭代:高效完成实验、快速反馈并据此调整方向的能力。
  • 优先级排序:在开放性研究中,能够在不确定性下辨别重点、深入或抽象思考。
  • 实证科学思维与怀疑精神:不断质疑假设、解读数据、挑战固有认知的科学态度。
  • 研究品味:对研究项目“正确的高层决策”有良好直觉,包括选择问题、识别最有前景的方向,以及设计可行的核心实验1

最核心的建议是:“你完全可以直接去做。”1 他本人曾用“一个月内每天写一篇博客”来克服完美主义的停滞,这不仅让他养成了输出习惯,还意外带来了“机制可解释性”领域的催生,并促成了他与伴侣的相遇。他将这种策略称为“扩大自己的幸运面积”:积极创造机会,乐于尝试陌生甚至“有点吓人”的项目,并在机会来临时敢于说“好”。

从剑桥大学的纯粹数学到DeepMind的AI安全先锋,Neel Nanda以其独特的视角和实践,不仅在技术层面推动了机械可解释性研究,更在职业发展、组织效率和AI伦理治理等宏观议题上,为业界提供了宝贵的反思和启示。他所代表的,或许正是这个时代最需要的那种——既脚踏实地、又勇于质疑、充满活力与远见的青年力量。

引用