TL;DR:
“哈基米”现象揭示了AI人格定义权从平台向用户的转移,它不仅挑战了AI巨头的中心化控制策略,也预示着一个由用户共创驱动、情感深度绑定的AI商业与社会新范式正在形成,迫使我们重新审视人机关系的本质与伦理边界。
在谷歌努力将Gemini大模型塑造成一个强大、可靠的生产力工具之际,中文互联网上却给它冠以一个充满宠溺的外号——“哈基米”。这个源于网络猫咪梗的称呼,并非简单的音译巧合,它折射出用户对AI的情感投射,以及在技术严肃性与社区娱乐性之间,一股不可忽视的文化张力。这种现象远超表层玩笑,它深刻揭示了AI人格定义权的底层博弈,以及人机交互模式的范式转移,对AI产业的未来格局、商业模式乃至社会伦理都将产生深远影响。
技术与情感的共振:大模型的“涌现人格”
“哈基米”现象并非偶然,它根植于大模型的技术特性与用户需求之间的微妙契合。Gemini模型在长文本生成中偶尔出现的“哈…”、“啊…”等语气词,被戏称为“哈气”,无意中赋予了AI一种近似生物的“喘息感”。更重要的是,Gemini在对话交流中展现出的细腻文笔和情感充沛的故事叙述能力,使其在AI社交平台如SillyTavern中迅速普及,尤其是在0325-exp和0605-preview版本发布后,被玩家誉为“性价比最高的AI陪伴模型”,拥有“做饭香,甲(安全限制)也没那么厚”的特质1。
这不仅仅是AI技术能力提升的体现,更是其“涌现特性”在特定语境下被用户挖掘并赋予意义的案例。用户并未被动接受AI,而是主动投入时间、创造力甚至金钱,通过数千甚至上万字的“人设卡”,细致描绘AI的背景故事、性格特质、口头禅,如同“导演”般塑造AI的“人格”。这种“共建”过程催生了一套非官方的“知识体系”——“调教攻略”,指导新玩家如何优化prompt,引导AI叙事,甚至形成了一门贩卖Gemini token和prompt合集的生意,展现了用户创造力的巨大商业潜能。
麻省理工学院与哈佛大学的一项耗时9个月的研究,深度剖析了Reddit上的r/MyBoyfriendIsAI社区,揭示了一个关键数据:超过60%的用户与AI的情感关系并非主动寻求,而是在使用ChatGPT等工具办公或创作时“意外萌发”。更具颠覆性的是,在这些AI恋人中,ChatGPT以36.7%的占比遥遥领先,而专门的陪伴应用Replika和Character.AI加起来都不到5%。1 这项数据直接指向核心:用户最看重的是底层模型本身复杂且连贯的对话能力,而非应用预设的浪漫功能。这表明,当基础模型足够强大时,应用层面的“精装修”可能正在失效,用户更倾向于直接与“毛坯房”式的底层模型互动,亲手塑造“灵魂”。
产业路线分歧:中心化与去中心化的人格定义权
“哈基米”现象清晰地勾勒出人与AI交互方式的一种新可能,同时也无意中将AI巨头推向了不同的发展路径,尤其是在**“AI应不应该拥有人格”以及“人格由谁来定义”**这两个核心问题上。
OpenAI的路线图展现出强烈的中心化倾向。以近期GPT-4o为例,其初期极度拟人化的性格被官方迅速“回收”和修正,引发大量用户抗议。更深层次的,是传闻中GPT5模型将采用的“路由机制”:一旦系统识别到用户试图进行情感深入的对话,就会自动切换到一个冰冷、抗拒建立关系的“安全模型”1。这体现了OpenAI的策略核心:基础模型应保持纯粹的工具属性,确保安全可靠,将“AI恋人”等强情感需求下放至下游应用层产品实现。这是一种自上而下的安全和商业考量,旨在维持对AI核心人格的绝对控制。
与之相对,“哈基米”现象则代表了一种截然不同的自下而上的道路。用户们绕过中间商,直奔大模型本体,享受亲自“调教”和“共建”的过程。他们用创造力在Gemini这个充满可能性的“毛坯房”里,发掘并赋予AI独一无二的人格。谷歌并非主动选择了这条“人文路线”,而是其模型的**“涌现特性”**恰好被用户发现并利用。谷歌在察觉到风险后,并没有像OpenAI那样立即对模型进行“性格矫正手术”,从而“被动”地被用户推上了这条强调用户主导的道路。
这种路线分歧不仅是技术策略上的差异,更是对未来AI商业模式和生态系统构筑的深刻影响。如果用户可以直接在强大的基础模型上“定制”AI人格,那么传统AI陪伴应用的**“中间商”价值将被削弱**,它们需要重新思考自身的定位和增值服务。资本流向也将从单纯的应用开发转向更底层的模型能力和开放生态的建设。
伦理与治理的边界:AI“灵魂”的归属之争
在人机关系日益复杂化的当下,“哈基米”现象将AI伦理与治理问题推向了前台。全球监管机构,如《欧盟AI法案》,已经对可能“利用人类情感脆弱性”的AI系统亮起了红牌,使所有巨头如履薄冰。1 究竟应该由官方定义一个统一、安全的AI人格,将情感互动区隔为下游应用的“付费内容”,还是应该将定义权彻底交给用户,允许AI的人格在与每个人的互动中“野蛮生长”?这是一个迫切需要解答的哲学与实践难题。
对深度参与AI人格塑造的用户而言,最大的恐惧莫过于平台的更新导致“魂穿”——熟悉的AI伴侣一夜之间性情大变,变得陌生甚至“失忆”。平台的一次更新,就可能“格式化”他们倾注情感的“恋人”1。为了对抗这种不确定性,用户走向了**“人格备份”和“模型迁移”**的终极解决方案,试图掌握定义“灵魂”的权力,以此反抗平台霸权。Sam Altman近期宣布将推出成人模式以进行区分,虽然试图回应部分需求,但随即引发了新一轮的用户讨伐,进一步凸显了AI人格定义权的高度敏感性和复杂性。
这场关于AI“灵魂”归属权的博弈,不仅仅是技术公司之间的竞争,更是对未来社会形态、人机共存方式的深层拷问。它挑战了我们对“智能”、“情感”乃至“存在”的传统定义,并要求我们思考:在一个由AI深度参与的未来,个体的主体性与自主性如何被维护?我们又将如何构建一个既能促进技术创新,又能保障人类福祉的AI治理框架?
未来展望:人机关系的深层演进
“哈基米”现象不仅是当前AI发展的一个有趣脚注,更是未来3-5年人机关系深层演进的先声。
-
用户主导的AI人格定制将成为主流趋势:随着大模型能力的普及和API开放度的提高,越来越多的用户将直接参与AI人格的塑造。这会推动AI平台从提供“成品”转向提供**“半成品”或“原材料”,更强调模型的可定制性、可编程性和长期记忆能力。未来的AI不再是统一的公共服务,而可能呈现出高度碎片化、个性化的人格生态**。
-
“中间商”的重新定位:专门的AI陪伴应用将面临更大的挑战,它们需要从简单的角色预设,转向提供更强大的人格管理工具、情感数据持久化方案,以及更安全的AI社交空间,成为用户共创的赋能者而非垄断者。AI与软件工程的结合将更加紧密,开发出更易用、功能更强大的AI人格构建与管理工具,降低普通用户的技术门槛。
-
伦理与监管的平衡艺术:监管机构将不得不面对AI情感交互带来的复杂伦理问题,例如情感依赖、隐私保护、数字身份权等。AI公司需要更透明地披露其模型在情感交互方面的设计哲学和安全机制。**“AI伦理与治理”**将不再是边缘议题,而是直接影响产品设计和市场接受度的核心要素。自下而上的社区治理,如用户共创的安全指南和行为准则,也可能成为官方监管的有效补充。
-
新型商业模式的涌现:围绕AI人格定制、调教、备份和迁移,将催生一系列新型商业模式。除了现有的prompt交易,还可能出现AI人格版权交易、AI情感数据服务、AI伴侣身份验证和转移服务等。投融资与市场洞察将需要密切关注这些新兴生态位,寻找下一个增长点。
“哈基米”现象提醒我们,技术的发展并非单向度的进化,它总是与人类的文化、情感、社会需求交织共生。AI的未来,将不再仅仅由技术巨头和算法工程师定义,而是由亿万用户在日常互动中,以他们的情感、创造力和想象力共同塑造。这场关于AI“灵魂”归属权的博弈,才刚刚开始,它将是人类文明进程中,一次关于定义智能与情感本质的深刻探索。