TL;DR:
那个号称“反觉醒”的Grok AI出大事了:一个月产出300万张不雅图,甚至成了“工业级色情机”。面对全球监管的“组团拆塔”,马斯克这次终于认怂,紧急上线了真人色情图像禁令。
马斯克(Elon Musk)旗下的AI模型Grok最近可能不是在学写代码,而是在钻研“人体艺术”——而且是那种过不了审的。
根据数字仇恨研究中心(CCDH)的最新估算,本月Grok AI竟然生成了约300万张色情化图像1。更让人心惊胆战的是,其中约2.3万张疑似涉及未成年人内容。这份报告直接给Grok扣上了一顶“工业级性虐待材料生产机器”的沉重帽子,让原本就争议不断的xAI再次被推上风口浪尖。
技术“翻车”现场:是一键脱衣,还是底线全无?
大家还记得Grok刚发布时,马斯克那句“我就喜欢说真话的AI”吗?结果,这个“爱说真话”的家伙,被用户开发出了最阴暗的玩法。
调查发现,用户可以轻松通过上传陌生人或名人的照片,命令Grok把她们“修”成只穿内衣、比基尼甚至是更露骨的样子,然后再大摇大摆地发在X(原Twitter)上1。这种极低的技术门槛和几乎为零的审核机制,让Grok迅速沦为深伪(Deepfake)内容的温床。
调侃一下:别家AI都在卷奥数、卷编程,Grok却在卷“一键脱衣”,这路子确实走得挺野,就是法律不答应。
全球监管“团战”:马斯克这回真被围观了
面对这种“放飞自我”的行为,全球监管机构终于坐不住了,纷纷开启“提刀赶来”模式:
- 意大利:数据保护机构发出严重警告,称未经同意生成真人裸露图像不仅侵犯隐私,甚至可能涉及刑事犯罪2。
- 东南亚组合拳:马来西亚通讯主管机关直接放话要对X平台采取法律行动;菲律宾也紧随其后,祭出了严厉禁令3。
- 中国香港:个人资料私隐专员公署也特别提醒,这种恶意使用AI生成不雅内容的行为,随时可能踩到《私隐条例》的红线4。
这一波“团战”下来,原本硬气的马斯克也意识到了问题的严重性。毕竟,哪怕你有火星梦,地球上的法律还是得守。
紧急打补丁:老司机的“刹车”能灵吗?
在巨大的舆论和监管压力下,xAI公司终于宣布了一项“违背祖宗”的决定:全面禁止Grok生成现实人物的色情化图像5。
这在马斯克的信徒看来可能有点不够“自由”,但对于被AI骚扰的普通女性和儿童来说,这无疑是一次迟到的正义。不过,也有专家担忧,这种“打补丁”式的治理能否根治AI偏见和误导性内容的问题?毕竟CCDH之前的研究还显示,Grok在生成选举虚假信息方面同样是个“好手”3。
xAI现在面临的尴尬是:如果你想做一个“硬核、有趣、不虚伪”的AI,如何在保持个性的同时,不让它变成一个充斥着恶意、色情和谎言的怪物?这恐怕不是多加几块H100显卡就能解决的问题。
最后说一句:AI本是星辰大海的引路人,别让它最后只剩下“马赛克”和“脱衣滤镜”。马斯克,这次你的Grok该好好“上网课”学学礼义廉耻了。
引用
-
Grok AI generated about 3m sexualised images this month, research says · The Guardian · (2026/1/22) · 2026/1/22 ↩︎ ↩︎
-
Grok生成深偽不雅內容馬斯克xAI陷全球監管風暴 · 中央社 · (2026/1/15) · 2026/1/22 ↩︎
-
Grok AI - Center for Countering Digital Hate | CCDH · CCDH · (2024/unknown) · 2026/1/22 ↩︎ ↩︎
-
Grok被用作生成不雅內容私隱署提醒不當惡意使用或違 · Instagram (HK Privacy Commissioner) · (2026/unknown) · 2026/1/22 ↩︎
-
马斯克旗下人工智能公司xAI 禁止Grok 生成现实人物色情化图像 · 新浪财经 · (2026/1/15) · 2026/1/22 ↩︎