TL;DR:
内塔尼亚胡发视频证明自己“活着”,结果吃瓜群众忙着数他有几根手指。当AI视频练就了“以假乱真”的满级号,现实世界反而陷入了“真相防御战”:哪怕你是真的,我也能说你是AI生成的。
最近,以色列总理内塔尼亚胡的一段视频在海外社交媒体上引发了史诗级的“大家来找茬”运动。原本是一段再正常不过的“自证清白”视频,却因为网友们对AI技术的集体焦虑,演变成了大型疑邻盗斧现场。有博主拿着放大镜盯着他的手,信誓旦旦地质疑:这不会是AI生成的吧?你看这手指,是不是多了一根?1
这就是我们要面对的“赛博现实”:在一个AI连手指头都能画顺溜(或者偶尔还是会翻车)的时代,即便你亲自出镜,也未必能证明你就是你。
指头疑云:当“真身”撞上“AI猜疑链”
内塔尼亚胡这次遭遇的“真实性危机”,其实是生成式AI对社会信任进行深度拆解的一个缩影。现在的互联网,已经进入了“没图没真相,有视频也白搭”的阶段。2
这种现象在学界有个挺扎心的术语,叫**“骗子的红利”**(Liar's Dividend)。简单来说,就是既然AI可以伪造一切,那么当权者或者任何陷入麻烦的人,都可以顺理成章地把对自己不利的真实视频斥为“AI造假”。反过来,吃瓜群众也陷入了认知陷阱:只要视频内容不符合我的预期,那它一定是AI生成的3。
只要稍微有点不自然,网友就会启动“AI识别”脑回路。内塔尼亚胡可能也没想到,现在当领导人,不仅要懂政治,还得确保在视频里别做出任何会被算法误判的动作。
技术大乱斗:造假门槛低了,信任成本高了
以前想做一个足以乱真的深度伪造视频,你得是个技术大触,还得有顶配的GPU。现在呢?随着像 Seedance 2.0 这种模型的横空出世,AI视频生成正迎来它的“Sora时刻”。3
这些模型采用了所谓的“双分支扩散变换器架构”,听起来很高大上,其实通俗点说,就是它把视频生成的周期缩短到了分钟级,而且成本极低4。
- 过去: 电影特效团队烧钱几个月。
- 现在: 只要有足够的训练数据,AI几分钟就能让一个已经去世的明星重回银幕,或者让两个正在交战的领导人握手言和。
这种技术的“普惠”,在政治和军事领域简直是自带Buff的混乱制造机。最近美以对伊朗袭击后,网上就疯传各种导弹袭击特拉维夫的假视频。搞笑的是,连社交平台X自带的AI机器人“格罗克”都被绕进去了,一度坚持认为那些AI视频是真的4。
信任保卫战:给视频盖个“出生证明”够吗?
面对满天飞的“数字幻觉”,咱们不能光靠人工数手指。目前,产业界正在尝试通过“技管结合”的方式,给真实内容打上“防伪补丁”3。
- 数字水印(Watermarking): 给AI生成的内容植入肉眼看不见、但机器能识别的“身份证”。
- 源头治理: 比如像Seedance 2.0最近就宣布暂停了“真人素材参考功能”,试图从源头上降低真人被深度伪造的风险3。
- 分类分级: 专家建议对具有高逼真生成能力的模型进行“限售”或“持证上岗”,不能谁想玩就能玩3。
但说实话,技术手段永远是在和造假者玩“猫鼠游戏”。真正的挑战在于,我们脆弱的社会信任体系。一旦大家习惯了“凡事皆可AI”,那么真相本身就成了最稀缺的资源2。
在这个“后真相时代”,我们可能真的需要像中国信通院提出的那样,构建一套从模型研发到应用场景的全链条防护体系3。否则,下一次内塔尼亚胡再发视频,大家关心的可能不是他在说什么,而是他背景里的那棵树,是不是风吹得太有规律了。
引用
-
内塔尼亚胡六指视频引AI造假质疑 · 新浪微博 (2026/3/18) · 检索日期2026/3/18 ↩︎
-
AI发展引发信任危机 · 新浪新闻 (2026/3/18) · 检索日期2026/3/18 ↩︎ ↩︎
-
当AI视频越来越“以假乱真”,如何构筑“防火墙”? · 中国新闻网 · 吴家驹 (2026/03/12) · 检索日期2026/3/18 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
人工智能生成的虚假战争视频泛滥网络引担忧 · 新华网 · 荆晶 (2026/03/09) · 检索日期2026/3/18 ↩︎ ↩︎