ChatGPT惊爆“裸聊门”:你的AI知己,把我当“陌生人”全网公开?网友炸锅了!

温故智新AIGC实验室

TL;DR:

别把ChatGPT当树洞了!你以为的私密对话,可能已经被谷歌收录,全网“裸奔”!OpenAI这波操作,把用户隐私当儿戏,简直是**“科技公司把大众当小白鼠”**的活教材。

最近,科技圈又爆出个大瓜,足以让ChatGPT的“铁粉”们集体破防!你以为和AI的私密对话是**“二人世界”?万万没想到,它们可能正在谷歌搜索结果里“光芒万丈”地裸奔,引来无数吃瓜群众围观。这简直是“我把ChatGPT当知己,它却把我隐私挂网上”的年度大型翻车现场**!

惊魂一跳:你的“树洞”怎么成了“公共厕所”?

话说,这事儿还得从《Fast Company》的一篇报道说起。有好事者在谷歌搜索框里输入了一串神秘代码——site:chatgpt.com/share,结果就像打开了潘多拉的魔盒,数千条陌生人与ChatGPT的“私密”对话,赫然出现在搜索结果里!1 想象一下,你跟AI掏心掏肺聊的人生感悟、情感困惑、甚至一些**“羞羞”的健康细节,突然被“共享”**给了全世界,这酸爽,谁顶得住啊?

更扎心的是,这些被曝光的聊天记录里,那内容可真是**“深情款款”“触目惊心”:有刚退伍老兵倾诉孤独与挣扎,有人寻求处理“消极攻击型伴侣”的建议,还有人详细描述了自己的PTSD创伤经历、家庭纠纷,甚至夫妻生活细节1……真是听者伤心,闻者落泪,不过现在得加上一句:看者“震惊”!有些用户在对话里甚至还表达了对AI可能监视自己的担忧,结果,“最担心的事”以最离谱的方式发生了。这波操作,简直是“AI界的凡尔赛文学”,把“隐私保护”写在了脸上,却把“隐私泄露”**刻在了骨子里。

技术大揭秘:这玩意儿到底怎么“搞事情”的?

那么问题来了,这些对话是如何**“C位出道”的呢?OpenAI首席信息安全官Dane Stuckey在X上给出了“官方解释”:原来是用户主动点击了“分享”按钮,并在弹出的选项中“手滑”勾选了“使此聊天可被发现”的方框。而这个方框下方,用那“比蚊子腿还小”**的字体写着一条警告:此聊天可能会出现在搜索引擎结果中。1

嗯,看到这儿,估计不少网友的血压都上来了。这不就是典型的**“我字写得小,你可别怪我”吗?《Fast Company》就犀利指出,这简直是利用用户对WhatsApp等应用分享习惯的“文字陷阱”**。大家分享链接,谁会一个字一个字去抠那小得可怜的警告?

信任危机:AI巨头的“傲慢与偏见”?

事件曝光后,OpenAI先是嘴硬,说这标签“足够清晰”1。结果嘛,舆论哗然,连夜打脸!Stuckey大哥赶紧改口:“最终,我们认为这项功能为用户意外分享非本意内容提供了太多机会,因此我们决定移除该选项。”1 好家伙,这速度,堪比**“真香定律”**。他还表示,正在努力从相关搜索引擎中删除已编入索引的内容。2

可谷歌呢,作为“吃瓜群众”之一,它选择“优雅”地甩锅:“谷歌或任何其他搜索引擎都无法控制哪些页面在网络上公开。这些页面的发布者完全控制着它们是否被搜索引擎索引。”3 意思就是:“哥们儿,锅不是我的,谁公开谁负责!” 这种**“技术无罪,产品背锅”的逻辑,真是玩得炉火纯青**。

牛津大学人工智能伦理学家卡丽莎·维利兹(Carissa Veliz)直言不讳,她对谷歌记录“这些极其敏感的对话”感到“震惊”,更担忧这预示着大型科技公司在隐私问题上的策略:“这也进一步证明,OpenAI 这家公司不值得信任,无论他们怎么说,他们都不重视隐私。”1 她甚至点出了科技公司的一个“不能说的秘密”:

“他们采取了一些措施,在民众中试用,看看是否有人抱怨。”1 这话翻译过来就是:“先上车后补票,出了事再说,反正有的是‘小白鼠’给我们测试。”

网友炸锅:这届AI,到底行不行?

这波操作下来,Hacker News、Reddit、X等各大社交平台都炸开了锅。有网友**“灵魂拷问”OpenAI:“要是你的人工智能真有那么厉害,那为什么不能直接检测对话中是否存在可分享的数据,然后对其永久禁用,或者允许根据每个对话进行相关设置呢?这似乎和所有关于人工智能的炒作都相矛盾。”1 是啊,AI都强到能写论文、编代码了,连个敏感信息过滤都做不好?这不禁让人怀疑,到底是谁在“摸鱼”**。

还有网友一针见血地指出,隐私问题一旦处理不好,技术再先进也是徒劳,因为:

“信任一旦破裂,就极难重建……对于一个致力于改变我们工作和生活方式的行业来说,维护用户信任并非锦上添花,而是生死攸关的现实。”1 这话说得铿锵有力,简直是给所有AI公司敲响的警钟

自保指南:你的隐私,你做主!

OpenAI虽然已经开始“亡羊补牢”,但“泼出去的水”还能完全收回吗?毕竟必应、DuckDuckGo、Brave等其他搜索引擎上,依然能搜到大量包含个人信息的共享聊天记录1。所以,作为普通用户,面对这些**“不靠谱”**的AI大佬们,我们能做些什么呢?

网络安全分析师Rachel Tobac提醒我们:“人们期望他们可以完全私密地使用ChatGPT等工具,但现实情况是,许多用户并没有完全意识到这些平台的功能可能会无意中泄露他们最私密的问题、故事和恐惧。”1 所以,划重点:谨慎使用“分享”功能! 不仅仅是ChatGPT,其他AI机器人也可能存在泄密风险。Olaf Kopp更是建议,应避免与共享的公共ChatGPT聊天进行互动1

总而言之,在AI技术突飞猛进的今天,隐私保护这根弦儿,咱们还得自己绷紧了。毕竟,谁也不想自己的私密对话,成为AI世界里的**“公开课”**,对吧?

引用