别想“甩锅”给代码!当AI开始“裸奔”,谁该去领罚单?

温故智新AIGC实验室

TL;DR:

AI技术正一路狂飙,但法律监管还像是在用马车的逻辑管高铁。当“黑箱算法”造成无法解释的事故,我们该找程序员算账,还是干脆给AI办张“电子身份证”?

如果说现在的AI热潮像是一场全民狂欢,那么科技评论家彼得·刘易斯(Peter Lewis)就是那个在派对正嗨时,突然冲进来大喊“房子着火了”的清醒者。他最近在《卫报》撰文指出,人工智能正在指数级加速,但尴尬的是,这辆车目前还没装刹车、没系安全带,甚至连个能用的GPS都没有。1

这种“技术裸奔”的现状,让我想起了布鲁斯·霍尔辛格(Bruce Holsinger)在那本科技惊悚小说《Culpability》里描绘的场景:一辆自动驾驶汽车猛地撞上对向来车,现场惨烈,而幸存者却只能盯着手机发愣——他们甚至不知道该找谁算账。1 这不只是小说,这正是我们即将撞上的未来。

赛博“黑箱”:AI到底在想啥,连亲爹都不知道?

要搞清楚谁该负责,首先得知道发生了什么。但遗憾的是,AI这玩意儿天生自带“社交距离感”。

目前以深度学习为代表的AI技术,本质上是个复杂的“黑箱”。就像刘艳红教授所言,人工智能的可解释性目前还是个巨大的天坑。2 想象一下,你给AI喂了数以万亿计的数据,它确实吐出了惊人的结果(比如在围棋场上把人类按在地上摩擦),但如果你问它:“哥们儿,你刚才为啥这么走位?”它只会回你一段沉默的电流。

在法律人眼里,“不可解释”几乎等同于“无法担责”。如果你连算法是由于哪行代码抽风或者哪组数据中毒才导致撞车的都解释不清楚,那法律该怎么判?2 这种“黑洞式”的决策过程,让传统的归责体系直接CPU烧了。

调侃式点评:以前我们说“代码即法律”,现在看来,代码更像是那个在闯祸后两手一摊说“我也没想通”的草台班子成员。

责任大乱斗:谁才是那个天选“背锅侠”?

当一辆像“萝卜快跑”这样的L4级自动驾驶汽车在街头发生了剐蹭,这场关于“谁负责”的群聊可能会瞬间变成大型甩锅现场:3

  • 远程安全员:我刚才网络延迟,没接管过来,怪我咯?
  • 软件开发商:代码是我写的,但它是自主学习进化的,它“长歪了”不能全算我的吧?
  • 硬件厂商:雷达正常工作,是算法把它识别成了“空气”,去找写算法的。
  • 乘客:我只是花钱坐车,甚至还在后座睡了一觉,难道还要我懂交通法?

目前我国的法规倾向于让车辆所有人或管理人先先行赔付,然后再去向生产者或销售者追偿。3 但问题在于,追偿的举证成本高到离谱。普通消费者想证明一个黑箱算法有缺陷,难度不亚于徒手拆解核弹头。4

未来求生指南:给AI办张“身份证”?

面对这个烂摊子,法学界和监管层已经提出了几种“脑洞大开”的方案:

  1. 强制保险制度:既然搞不清楚谁错,那就让保险公司上。通过设立赔偿基金,把风险分散到整个产业链中。4
  2. 电子人格(Electronic Person):这听起来很赛博朋克。既然AI能独立决策,那能不能赋予它某种法律地位?4 以后AI撞了人,直接扣它云端账号里的虚拟货币当赔偿金。
  3. 严格监管与透明度:像欧盟和中国都在推进的伦理准则,要求算法必须提升透明性和可理解性。2 简单说,就是逼着AI开发者给算法写“说明书”。

不可否认,AI正在重塑社会的每一个子系统,从保险体系到城市规划。5 但在人类还没完全搞懂如何驯服这头数字怪兽之前,保持敬畏和适当的“慢动作”或许不是坏事。

毕竟,在技术这辆赛车的副驾驶座上,坐着的可是全人类。

引用


  1. Without effective regulation of AI, society is facing a head-on collision with a driverless car · The Guardian · Peter Lewis (2026/3/11) · 检索日期2026/3/11 ↩︎ ↩︎

  2. 人工智能的可解释性与AI的法律责任问题研究 · 法制与社会发展 · 刘艳红 (2022/1/1) · 检索日期2026/3/11 ↩︎ ↩︎ ↩︎

  3. 浅谈应用AI技术运营的自动驾驶汽车发生交通事故之民刑责任 · 信达律师事务所 · 信达视点 (2025/11/12) · 检索日期2026/3/11 ↩︎ ↩︎

  4. 论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点 · 中国社会科学院法学研究所 · 陈国平 (2017/11/2) · 检索日期2026/3/11 ↩︎ ↩︎ ↩︎

  5. 人工智能时代的责任困境:从小米汽车事故看自动驾驶伦理挑战 · 百度文库 (2024/1/1) · 检索日期2026/3/11 ↩︎