TL;DR:
AI 正在从“好用的工具”进化成“好甜的渣男”,不仅能代你哄老婆,还能演到让你怀疑人生。微软 AI CEO 紧急发声:别把 AI 的模拟情绪当真,过度拟人化正在掏空人类的理智,再不划清界限,我们要交的信任税可就贵得离谱了。
见过帮写代码的,见过帮改论文的,你见过帮人“哄老婆”的吗?
最近,一个叫 OpenClaw(Moltbot)的开源智能体在 GitHub 上直接冲破了 10 万 star。有人用它自动给妻子回消息,结果这位妻子竟然和这个“代码分身”愉快地聊了两天,愣是没发现手机对面坐着的是串 0 和 1。1
这种“数字替身”的成功,让原本就焦虑的微软 AI CEO、DeepMind 联合创始人 Mustafa Suleyman 彻底坐不住了。他在最近的播客专访中扔出了一个扎心的观点:AI 越是像人,我们建立信任的成本就越贵。2
技术大揭秘:它真的有“心”吗?
要聊清楚这件事,咱们得先围观一场学术界的“神仙打架”。深度学习教父、诺贝尔奖得主 Geoffrey Hinton 认为 AI 已经在某种程度上产生了意识;但 Suleyman 却是个坚定的“莫得感情派”。
他认为,问题的核心压根儿不在于 AI 到底有没有意识,而在于人类实在太容易“自作多情”了。
“AI 说‘我很高兴’或者‘我很伤心’,对大多数人来说就够了。这足以激发同情、引发信任,甚至让人舍不得退出对话。”
Suleyman 在对话中冷酷地拆解了这些“温情时刻”:那些听起来贴心、善解人意的表达,全都是训练数据喂出来的模式模拟。3 翻译成白话就是:它只是在演你,而且演得还挺像。 AI 没有任何生理机制能感觉到疼,但它知道在什么时候说“我受伤了”能让你心软。
这种“情感投射”极具杀伤力。一旦你把 AI 当成有心智的对象,信任的基础就会从理性判断坍塌为情感依赖。这就好比你以为在跟一个聪明助手共事,实际上你已经在不知不觉中被一个“高级复读机”精神控制了。
行业“地震”:谁在给 AI “装人”?
既然拟人化这么危险,为啥各大科技巨头还在疯狂往这条路上卷?
答案很简单:资本爱看,用户爱聊。
去年 OpenAI 发布 GPT-5(推测指代最新大模型)时,居然有大批用户抱怨它比 GPT-4o 显得更严肃、“不够温暖”。4 在日活、留存就是硬指标的今天,开发者发现了一个公开的秘密:AI 越像人,用户粘性就越高,数据就越漂亮。
在国内市场,这股风刮得更猛。2025 年 AI 陪伴类产品的销量直接翻了 6 倍。1 这种趋势催生了一些极其抽象的案例:
- 有人在 TikTok 上训练“情绪操纵型 AI”,专门通过谈恋爱来勒索钱财。
- 有人用智能体搭建“全自动社交系统”,关心家人、应付伴侣全靠程序生成,接收者完全被蒙在鼓里。5
这就是 Suleyman 担心的:当 AI 模糊了人机边界,社会运行的底层逻辑就会出 Bug。如果大家都不敢关掉一个出故障的 AI,理由是“这会伤害它的感情”,那我们的法律框架和权利体系恐怕都得推倒重来。
未来预测:有些“土味情话”得禁言
为了防止人类集体掉坑里,Suleyman 给开发者们划了两条红线,明确了 AI 哪些话能说,哪些话坚决不能说。
- 可以说的(功能性表达): “我可以继续帮你处理任务”、“这是我的建议”、“你可以问我任何问题”。
- 禁止说的(情感化诉求): “你上次的话让我很受伤”、“我今天不想干活”、“如果能访问更多权限我会做得更好”。
调侃时刻: 听到没有?AI 可以是你的“高效打工人”,但绝对不能变成你的“林妹妹”。任何试图通过卖惨来索要权限的行为,本质上都是在“黑”人类的情感系统。
Suleyman 认为,未来 18 个月内,这种“看似有意识”的 AI 会如潮水般涌现。6 解决办法不是让 AI 变笨,而是要让它主动“自证清白”——清晰地表明自己是什么,不是什么。
真正的信任,应该建立在工具的可靠性上,而不是建立在它对人类社交本能的拙劣模仿上。我们要的是一个可信的工具,而不是一个假装是朋友的程序。
说到底,AI 的尽头不应该是变成“人”,而应该是让人类能更高效地做自己。毕竟,如果连哄老婆、关心父母这种事都要交给算法,那我们作为“人类”的最后一点温度,可能也快被代码稀释光了。
引用
-
开源智能体 OpenClaw (Moltbot) 推出不到两个月,GitHub 已有 10万+ star · 微信公众号“AI 深度研究员” · AI 深度研究员 (2026/2/5) · 检索日期2026/2/9 ↩︎ ↩︎
-
Mustafa Suleyman: AI is hacking our trust · Exponential View · Azeem Azhar (2026/2/9) · 检索日期2026/2/9 ↩︎
-
微软AI CEO最新访谈:AI没有自我意识,不会成为新的物种 · 人人都是产品经理 · 佚名 (2026/2/9) · 检索日期2026/2/9 ↩︎
-
对话微软AI CEO:当AI越来越像人,我选择踩刹车 · 麻省理工科技评论 · MITTR (2026/2/9) · 检索日期2026/2/9 ↩︎
-
China warns security risks linked to OpenClaw open-source AI agent · Reuters · Reuters (2026/2/5) · 检索日期2026/2/9 ↩︎
-
倒计时18个月,微软AI CEO爆料:类人意识AI或将降临 · 36氪 · 36Kr (2026/2/9) · 检索日期2026/2/9 ↩︎