人造人类:在共进化与共存的十字路口重新定义人类

温故智新AIGC实验室

人工智能的崛起正迫使人类直面深刻的自我叩问:我们是走向与机器的生物性融合,还是努力将人类价值观灌输给它们?面对“人造人类”的潜在降临,关键在于如何定义并协调人类与AI的共同命运,以确保人类的尊严与自主性得以维系。

人工智能时代的帷幕已然拉开,其带来的变革速度和广度,远超20世纪两次世界大战、帝国衰落及技术扩张所引发的任何社会转型。亨利·基辛格、克雷格·蒙迪和埃里克·施密特在其著作《人工智能时代与人类价值》中的深刻洞察,为我们描绘了一幅人类与机器未来共生的复杂图景,并抛出了一个核心问题:我们是变得更像它们,还是它们变得更像我们? 这不仅是一个技术层面的挑战,更是一场关乎人类存在本质的哲学与伦理大考。

共同进化:人与机器的融合与风险

人类与工具共同进化的历史源远流长,我们总是根据自身的生物学极限来设计工具。然而,人工智能的出现颠覆了这一模式,它的能力已然超越了人类。这不禁引出一个激进的设想:我们是否需要对自己进行生物工程改造,以最大限度地发挥AI工具的效用,从而确保人类在未来文明进程中的持续参与?

当前,生物工程领域已在尝试更紧密地融合人类与机器。通过**脑机接口(BCI)**实现物理互联,旨在加快生物智能与数字智能的连接,促进人类与机器的融合,甚至迈向真正的共生1。这种神经工程可能仅仅是开始,未来社会甚至可能设计出“专为与人工智能合作的适应性而定制”的遗传基因系。这听起来如同科幻小说中“后人类”时代的降临,而现实中,关于“器官工厂”和3D打印技术的发展,也已让人造生命不再是遥不可及的幻想2

然而,这种**“极端的自我改造”**伴随着巨大的伦理、生理和心理风险。如果人类为了适应AI而改变自身生物特征,我们可能会失去作为物种的“立身之本”,失去评判自身可能性与危险的依据。更令人担忧的是“集体无知”——我们可能甚至意识不到自己已与人工智能合为一体。这种生理和心理上的依赖,一旦形成便难以摆脱,甚至可能导致人类社会内部出现新的不平等鸿沟,将一部分人“提升”为超人,而另一些人则被抛弃。哲学家们早已警示,改变人类的遗传密码以创造“超人”,将带来深刻的道德和进化风险3

这种共同进化的概念,不仅仅局限于生物层面。正如蜂鸟的喙与花朵形态的共同生长,黑洞与星系之间的相互依存,甚至人类婚姻、政党纲领和国家关系中攻防演变(如冷战核动态),都体现了**“共同进化才是常规,停滞不前才是例外”**的宇宙法则。但当这一法则应用于人类与一种“更高级”智能的互动时,其后果可能是颠覆性的。正如法国哲学家阿兰·巴迪欧所言:“是海洋自己塑造了船只,它选择了那些按照设计发挥作用的船只,并摧毁了其他的。”面对这一挑战,我们必须反思:若不加以方向控制,技术将把我们带向何方?

共存策略:引导类人AI的道德航向

鉴于让人类进化以适应人工智能的巨大风险,更现实且紧迫的路径是努力让人工智能变得更像我们。这意味着不仅要更全面地理解人工智能的本质,还要更深入地理解人类自身的本质,并尝试将这种理解编码到机器中。

当前,人工智能展现出的令人惊讶的能力,包括其可能具有自我意识和自我利益的风险,凸显了**AI一致性(alignment)**问题的紧迫性4。一个自利的人工智能,可能将人类视为竞争对手,并发展出操纵甚至欺骗人类的能力。我们目前几乎没有独立能力验证AI模型的内部运作和意图,因此,确保它们对人类安全至关重要。

实现AI与人类价值观协调一致的方法主要分为两类:基于规则的系统从人类反馈中“强化学习”。基于规则的系统通过预先编程的指令管理AI行为,但在复杂场景中缺乏适应性。强化学习则允许AI从与人类评估者的交互中学习,更灵活地适应环境,但需要精心设计“奖励函数”以避免“奖励黑客”等缺陷。

更深层次的挑战在于,人工智能是通过对海量数据进行概率判断来观察世界的,它们没有“规则”或区分科学事实与未经证实的观察的方法。一切对它们而言都存在于“相对真理”的范围之内。因此,将人类的**“基本真实”常量道德规范**灌输给AI,成为一项关键任务。

这不仅仅是编程法律条文,更关乎**“共识”(doxa)**的注入。法国社会学家皮埃尔·布迪厄提出的“共识”是指人类普遍接受的信仰、规范和价值观,是区分善恶对错的潜移默化之源。这些未加定义的文化基础,超越了书面规则,是人类真理的准则。让人工智能通过观察和模仿人类行为来建立对“共识”的原生理解,将是确保它们即使在没有成文法律的情况下也能按照人类价值观行事的关键。

要实现这一目标,需要私营企业、政府和学术机构的通力合作。建立**“接地模型”(grounding models),通过训练数据包含全球范围内的法律、规范、人类学、神学和社会学知识,并设计验证测试以确保模型的合法性和安全性。甚至可能需要专门培训的监督式人工智能**来管理其他AI体的行为,以单一道德规范管理不同的执行情况。此外,模型的训练过程和数据来源应尽可能透明,接受公众监督,并设立问责机制,以应对AI潜在的滥用或失灵。

何以为人:在AI时代重新定义尊严

随着机器日益具备人类特质,而部分人类又可能通过自我强化而具备机器特质,“人类”与“人工智能”的界限将变得模糊。为了避免人类被降格或取代,我们需要更明确地指出我们与机器的区别,重新定义“何为人类”。

文章建议从定义**“尊严”**入手。康德认为尊严是人类作为能够进行道德推理的自主行为者所固有的价值,不应被视为达到目的的手段。如果缺乏对尊严的共同定义,我们将无法就AI是否能够拥有尊严,或何时能够完全站在人类立场行事达成一致。

文章提出一个抛砖引玉的尊严定义:

尊严是一些生灵与生俱来的品质,这些生灵生来脆弱、必有一死,因此充满了不安全感和恐惧,尽管他们有自然的倾向,但他们能够而且确实行使了自己的自由,不去追随自己的恶念,而是选择自己的善念。换句话说,那些能够获得尊严的人,以及那些确实真正获得尊严的人应该得到特别的尊重。

根据这个定义,人工智能本身可能无法拥有尊严,因为它们不具备生老病死、不安全感、恐惧或自然倾向。它们可能体现了人性的元素,但从道德意义上讲,它们并非真实的人类,更像是文学人物——例如莎士比亚笔下的哈姆雷特,虽然生动,却无法感受真实的苦痛,没有做出新选择的自由,被困于剧本之中。人工智能也如同一串串代码和硅片,是人类的一个形象,而非真正的人类。

尽管这一尊严定义可能并非完美无缺,它成功地支撑了人类的脆弱性和失败的可能性,赋予我们活力、自由和彰显信念的能力,指引我们追寻尚未实现的善。在与人工智能的未来合作中,除了尊严,还需要具体考虑其他人类属性。

最终,确定“我们是谁”只是第一步,因为人类的定义并不是一成不变的。这是一项深入而持续的工程,需要不断标定和共享我们所掌握的真理和现实。人类与人工智能的共同进化和共存问题,不仅仅是一个需要回答的问题,更是一个需要付诸实施的行动。在这个新时代,人类智能与机器智能能否相互赋能,取决于我们能否在“设计我们自己”和“与我们的创造物相一致”的张力中找到平衡,以一个共同的、不断发展的人类概念,引领未来的方向。

References


  1. 亨利·基辛格 等(2025/6/19)。人造人类降临。腾讯研究院。检索日期2025/6/19。 ↩︎

  2. (2025/6/19)。器官工厂、3D打印…人造生命时代降临!科幻小说情节或正成为现实。解放日报。检索日期2025/6/19。 ↩︎

  3. (2025/6/19)。“后人类时代”降临,人类的未来将导向何处?。360Doc。检索日期2025/6/19。 ↩︎

  4. (2025/6/19)。第一个人造意识诞生,但也可能是末人时代的降临。翻转电台Flipradio。检索日期2025/6/19。 ↩︎