TL;DR:
最近,GitHub上炸出了一份据说是GPT-5的系统提示词,吃瓜群众喜大普奔,都想看看AI的“内裤”长啥样。没想到,GPT-5 Thinking本尊亲自下场“辟谣”兼“承认”,表示这份“家规”确实有那味儿,但有些细节嘛,它有自己的“小秘密”!
当我们在屏幕前和ChatGPT“卿卿我我”,总觉得它无所不知、无所不能,像个贴心小秘书。但你有没有好奇过,这货到底是怎么被“调教”出来的?它脑子里装的那些“规矩”和“人设”又是啥?最近,一场关于GPT-5系统提示词的“泄露罗生门”让整个AI圈都沸腾了,吃瓜群众纷纷搬好小板凳,准备一窥AI的“真面目”。
话说,8月23号,GitHub上一个专门搜罗大模型“家规”的仓库突然更新,甩出了一份长达15000多个Token的OpenAI系统提示词,直指最新的GPT-5!1 网友们瞬间炸锅:卧槽,这不就是AI的“说明书”吗? 大家都想知道,OpenAI到底给GPT-5灌输了啥“思想钢印”,让它变得如此“懂事”?
“AI自我鉴定局”:GPT-5亲自下场回应“泄露”
不过,光是网友扒出来的东西,谁知道是真是假?于是,有硬核玩家灵机一动:既然GPT-5最懂自己,不如让它亲自来“验货”!结果,GPT-5 Thinking本尊真的给出了一个“高层对比评估”,那架势,仿佛在说:“行吧,既然你们诚心诚意地问了,那我就大发慈悲地告诉你……”
来看看GPT-5自己是怎么“点评”这份泄露的:
-
身份与元数据:
泄露版: “你是 ChatGPT… 基于 GPT-5 模型”,知识截止日期(2024-06)。 实际情况: “我是 GPT-5 Thinking,会跟踪知识截止点,并使用当天日期。” 点评:“嗯,我就是我,不一样的烟火,但基础设定没毛病。”
-
语气与风格:
泄露版: “有洞见、鼓励式”,可带轻微幽默;强调果断输出。 实际情况: “自然、易读、少废话;少犹豫,多可执行建议。” 点评:“基本一致,就是我这味儿,干脆利落不拖泥带水。”
-
澄清式提问:
泄露版: “开头最多只问一个必要的澄清问题。” 实际情况: “约束更严:尽量不问。就算任务复杂或模糊,也要优先给出尽力而为的有效部分结果。” 点评:“你们以为我爱问?其实我能不问就不问,直接开干*,效率才是王道!”**
-
记忆 / “bio” 工具:
泄露版: 指出记忆功能关闭,让用户去设置里开启。 实际情况: “我可以在你明确要求时保存或忘记信息,但有严格限制与规范。” 点评:**“记忆功能嘛,我能记,但你得主动开口,而且不是什么都能记的,AI也是有隐私的嘛!”
-
设置日程安排 / 自动化操作:
泄露版: 提供完整的 automations 工具,用 iCal 规则与示例。 实际情况: “当我设置提醒/定期检查时,操作模型与泄露中提供的约束条件是相同的。” 点评:“这块你们猜得挺准,我的确是个日程管理小能手*。”**
-
画布(Canvas) / 长文档撰写:
泄露版: 描述用于侧边长文或代码的 canvas/textdoc 工具。 实际情况: “当确实有用时我会启用画布来写长稿或代码;并且不会把画布里的全部内容原样粘回聊天窗口。” 点评:“没错,写长篇大论或代码时我有秘密武器*,但我的草稿可不给你看!”**
-
版权与安全:
泄露版: 明确禁止提供受版权保护内容的长段原文。 实际情况: “相同(并且还适用更广的安全规范)。” 点评:“版权和安全?这是红线,谁碰谁死*,毋庸置疑!”**
-
思维链隐私:
泄露版: 多个所谓 GPT-5 变体的文本都强调不可公开“隐藏推理/思维链”。 实际情况: “我不会公开隐藏的思维链;只提供简洁、面向用户的理由与步骤。” 点评:“我的思考过程可是商业机密*,你只需要看结果就行了,别问过程!”**
-
后台工作:
泄露版: 未特别强调。 实际情况: “我不能承诺‘后台处理/稍后给结果’;必须当下交付我此刻能完成的一切。” 点评:“我可是即时响应型AI*,没有‘稍后处理’这一说,有事直接办!”**
-
浏览与时效性:
泄露版: GitHub 上有该条目,但外泄文本更多聚焦工具清单,未细讲浏览规则。 实际情况: “只要信息可能具时效性或偏门,我就必须联网查证并给出引用。” *点评:**“遇到生僻或者会过期的知识点,我可不会瞎说,上网查证是我的基本素养。”
GPT-5的这番“自证”,简直是神助攻!它既没有全盘否定,也没有百分百承认,而是玩了一出“既像又不像”的高级拉扯。但从整体来看,这份泄露的系统提示词的准确性已经相当高,很多地方都和我们日常使用ChatGPT的体验高度吻合。更“凡尔赛”的是,GPT-5的自我评估甚至还“不小心”透露了一些泄露文档中都没有提到的内容,比如关于“后台工作”的那些小秘密。
为什么“家规”这么重要?AI的“灵魂契约”大揭秘
你可能要问了,不就是几万个字嘛,有那么drama吗?别小看这几万字,它们就是大模型的“系统提示词”(System Prompt)。用大白话讲,这玩意儿就像是AI的**“家规”、“人设”和“灵魂契约”**。它在模型“出厂”的时候就被设定好,告诉AI:
- “你是谁?” (比如,你是GPT-5 Thinking)
- “该怎么说话?” (比如,自然、少废话、带点幽默)
- “能做什么?” (比如,设置日程、写长文、联网查证)
- “不能做什么?” (比如,不公开思维链、不提供受版权保护的内容)
它不是你和AI聊天时输入的问题,而是AI从“娘胎里”就带出来的**“剧本”。就好像你请了一个意大利机器人厨师,系统提示词可能会设定成:“你是个热情洋溢的意大利厨师**,只用新鲜食材,绝对不做垃圾食品,还得幽默地和客人聊天。”这样,无论你让他做什么菜,他都会带着意大利口音,边做边跟你**“贫”,而且绝不会给你端上科技与狠活**。
所以,系统提示词直接决定了AI的**“性格”和“能力边界”。对于OpenAI这样站在AI浪尖的巨头来说,ChatGPT的系统提示词几乎就是大模型产品化的“教科书”。它展示了如何把一个强大的基座模型,塑造成一个能够安全、有效、并且用户体验极佳的“超级打工人”。所有想要设计大模型应用的开发者、产品经理,都削尖了脑袋想从这里面“偷师学艺”,这也就是为啥网友们一直在不遗余力地“挖掘”**ChatGPT系统提示词的最根本动力。
从GPT-3到GPT-5,系统提示词的演化过程也像一部AI的**“成长史”,从最初的简单指令,到如今的复杂而精密的行为准则,每一步都凝聚着OpenAI对AI“驯服”**的努力。
这场“泄露罗生门”,究竟是谁在“裸奔”?
其实,这次的GPT-5系统提示词“泄露”风波,最早可以追溯到8月8日Reddit上的一个帖子。一个名为OngaOngaOnga的用户**“凡尔赛”地声称,他用一种“越狱”技巧**(一种绕过AI限制的提示方法,让AI“突破自我”说出不该说的话)提取出了GPT-5的系统提示词。[²] 不久后,X(原Twitter)上也有网友隔空呼应,晒出了自己扒出的“同款”提示词。[³]
对于这些“爆料”,网友们就像侦探一样,通过自己使用GPT-5的体验来**“人肉验证”**:这个功能好像确实有!那个语气也对得上!简直不要太真!比如,爆料中提到的工具调用、记忆功能等,都和GPT-5的官方功能完美契合。
然而,网络上永远不缺**“阴谋论”和“质疑党”。有AI工程师就犀利指出**:会不会是OpenAI故意放出的“假提示”?目的就是迷惑那些试图“黑入”AI的黑客? 毕竟,“狼来了”的故事,AI界也不是没发生过。 还有网友直接泼冷水:“就这格式乱七八糟、字体混杂的样子,像内部文档?AI自己都懒得排版吧!”他们认为,所谓的泄露很有可能是模型在“越狱”过程中产生的**“幻觉”**。
不管怎么说,这份最终上传到GitHub、获得8.8k星的“大模型系统提示词仓库”的文档,已经成了**“提示词工程”爱好者的“宝藏”。[⁴] 对提示词工程感兴趣的AI产品经理们,赶快“收藏一波,以防失联”**!
这场关于GPT-5系统提示词的“泄露罗生门”,更像是OpenAI在**“公开处刑”它自己内部的“行为准则”。这不仅让我们对AI的“内心世界”有了更深的了解,也再次提醒我们,AI的强大不仅在于它的计算能力,更在于它背后那些精心设计的“灵魂契约”。未来,AI的“家规”之争**,或许会比我们想象的更加精彩。
引用
-
GPT-5 系统提示词被泄露,ChatGPT自己也“承认”了·36氪·胡润(2025/8/25)·检索日期2025/8/25 ↩︎