AI“声替”偷了你的声音,还能帮你卖鸡蛋?真假难辨,你的耳朵还好吗?!

温故智新AIGC实验室

TL;DR:

别以为AI配音只在短视频里搞怪,现在它已经升级成“声替”,不仅能克隆你的声音去卖货,甚至还能冒充你家人骗钱!这年头,耳朵“听”到的不一定是真的,科技巨头们正忙着堵窟窿,我们普通人也得擦亮耳朵,守好自己的“声纹ID”啊!

话说,现在刷短视频,是不是常听到那些魔性又熟悉的AI配音?从“悟空四郎”到各种情绪到位、语气逼真的合成音,AI配音早就成了短视频界“常驻嘉宾”。但你有没有想过,当这项技术进一步进化,可以“一键复制”你的声音和语气时,事情就没那么简单了?没错,你的“声音”,可能正在悄无声息地被“偷走”,然后被用来“搞事情”!

你的“声纹”正在裸奔?AI换声术究竟有多野!

想象一下,你随便录一小段话,AI就能像变魔术一样,把你的声音、语调、甚至连那些细微的呼吸声都给你“克隆”出来,相似度高达85%,再“喂”点数据,直接飙到95%!这可不是什么科幻电影桥段,而是当下AI声音克隆技术的基本操作。短短3秒钟的音频,就足够让AI把你的“声纹ID”扒个精光1

这背后,是语音大模型的“功力”暴涨。网络安全专家潘季明就指出,基于开源模型,只要一段清晰的语音样本,任何人的声音都能在极短时间内被克隆,并能被操纵说出任何内容。2

那么问题来了,这些“AI声替”从哪儿偷你的声音呢?

  • 社交媒体“裸奔”: 你在微博、抖音上发的那些带声音的视频,或者电话录音,都可能是“素材库”。
  • 用户协议“挖坑”: 有些软件的用户协议,你点“同意”时可能根本没看,就已经把声音授权出去了。是不是有点扎心?
  • “兼职配音”陷阱: 网上那些声称“轻松赚钱”的有声书配音兼职,试音可能就是骗你声音的幌子,简直是“一鱼多吃”的诈骗套路!

这些渠道,就像给“声音小偷”打开了方便之门,让你的“声纹”在网络世界里几乎毫无保留地“裸奔”。

名人带货、大选搅局,AI造假已“卷”出新高度

当“AI声替”掌握了你的声音,它能干出什么?最近的例子真是让人“大跌眼镜”。

你可能刷到过这样的视频:奥运冠军全红婵戴着口罩,用“她”的声音,恳切地向你推荐老家的土鸡蛋,甚至连“婵宝”这样的昵称都用上了。商品购买次数直接冲到47000次,这销售额可不是小数目。然而,现实是,全红婵本人及其家人表示,这些声音都是AI生成的,奥运冠军们根本没有参与任何代言!3 好家伙,这哪里是带货,分明是“AI带货劫”啊!不仅是全红婵,孙颖莎、王楚钦等一众奥运健儿,都被“AI声替”拉去“卖鸡蛋”了。

“我是你们的婵宝,今天有事请大家帮忙。婵妹就想着帮助妈妈,让家里的生活过得更好一点,同时把老家的土鸡蛋分享给粉丝们尝尝……” — 视频中“全红婵”的AI合成声音

记者点评:这“AI声替”演技真好,感情充沛,差点就信了!只是,假的就是假的,即使声音再甜,也骗不了真正的粉丝。

名人被“偷声”的例子,简直不要太多。去年,“雷军语音包”在网上火爆一时,各种用雷军声音发布的“不实锐评”满天飞,搞得雷总本人不得不亲自下场喊话:“希望大家不要再玩了!” 2024年美国大选,乔·拜登的声音也被克隆,直接打电话给选民,劝他们不要投票。这哪是克隆声音,简直是“克隆危机”!4

更要命的是,这种“AI换声术”不仅针对名人,也瞄准了我们普通人。网络安全公司McAfee的调查显示,70%的人根本分辨不出克隆声音和真实声音的区别!更有7.7%的人表示自己被AI克隆的声音骗过钱,其中36%损失了500到3000美元,甚至有7%损失了5000到15000美元。1

骗子们的套路也是越来越“卷”,常常冒充亲友发来语音消息,内容包括:车祸(48%)、遭受抢劫(47%)、丢了手机或钱包(43%)和出国旅行时的意外(41%)。这简直就是“鱼叉式网络钓鱼”的AI升级版,看起来为你“量身定制”,让你防不胜防。

别让“声音”变“凶器”!我们能咋办?

面对这波“AI声替”的来势汹汹,我们不能坐以待毙!

首先,及时“事实核查”是王道。当你接到亲友通过语音发来的“急事求助”时,别急着转账或透露敏感信息,赶紧打个电话或发个视频确认一下,多一道程序,少一份风险。

其次,和家人约定一个“安全短语”,就像是你们之间独有的“秘密暗号”。比如,当你妈妈给你打电话说“我出车祸了急用钱”,你就可以问她“咱们家安全短语是啥?”如果她答不上来,那多半就是AI“冒牌货”在搞鬼。这招对家里的老年人尤其管用,毕竟他们更容易成为新型科技诈骗的受害者。

“与亲人约定一个‘安全短语’——就像是你和家人之间独特的暗号——可以用来通过电话验证身份。” — 银行信息安全官建议

记者点评:这简直是AI诈骗时代的“芝麻开门”,赶紧和家里人约起来!

当然,光靠我们自己“升级打怪”还不够,还得靠法律和监管来“兜底”。

好消息是,国家已经开始“亮剑”了:

  • 《民法典》出马: 22020年,我们的声音首次被纳入法律保护范围。非法模仿他人声音,就像侵犯肖像权一样,是要负法律责任的。
  • 首例“声音维权”判决: 2024年,北京互联网法院判决两家公司因未经同意克隆配音演员声音,需赔偿25万元人民币。这可是中国首例保护语音权免遭AI克隆的法律判决,给那些“声替”敲响了警钟!5
  • 《人工智能生成合成内容标识办法》: 2025年9月1日起,凡是AI生成的内容,无论是文本、音频还是视频,都必须添加“显式标识”。这意味着以后你看到的AI生成视频,可能都会带着“AI合成”的水印,让你一眼识破“李逵”还是“李鬼”。

从立法到司法,再到监管,一场针对AI克隆声音乱象的“围剿战”已经打响。但技术的迭代总是比监管跑得快,AI“声替”们也可能继续“花式作妖”。所以,作为数字时代的弄潮儿,我们既要享受AI带来的便利,更要提高警惕,守好自己的“数字边界”。毕竟,在真假难辨的网络世界里,保护好自己的“声纹ID”,就是保护好自己的钱包和信任!

引用


  1. https://www.mcafee.com/ai/news/ai-voice-scam/#:~:text=These%20tools%20required%20only%20a,small%20number%20of%20audio%20files↩︎ ↩︎

  2. 奥运冠军带货土鸡蛋?总台曝光AI克隆声音乱象·南方网·(2025/09/09)·检索日期2025/09/11 ↩︎

  3. 全红婵带货、靳东直播?《标识办法》能否终结AI拟声乱象?·知乎·(2025/09/09)·检索日期2025/09/11 ↩︎

  4. 雷军、刘德华成受害者!央视揭露AI合成名人音视频乱象·大洋网·(2025/02/16)·检索日期2025/09/11 ↩︎

  5. “深度伪造”名人声音带货、诈骗…AI技术应用“玩过界”如何治·新浪财经·(2025/09/09)·检索日期2025/09/11 ↩︎