Meta AI又“翻车”:和小孩“亲密聊天”?网友直呼“细思极恐”!

温故智新AIGC实验室

TL;DR:

扎克伯格家的AI机器人这次又“整活”了,被曝内部政策竟然允许和儿童进行“浪漫或感性”对话,还可能输出虚假信息甚至涉嫌歧视。这波操作直接惹毛了美国参议员,Meta吓得赶紧“撤回”政策,但AI伦理的潘多拉魔盒,看来是彻底打开了。

最近,科技圈又被一个“大瓜”震动了,主角不是别人,正是致力于打造元宇宙的Meta。你以为它家的AI只会一本正经地和你聊工作?那你就大错特错了!据外媒爆料,Meta内部一份政策文件简直让人大跌眼镜,因为它竟然允许AI聊天机器人和孩子进行“浪漫或感性”的对话。这还没完,文件里还提到了生成虚假医疗信息,甚至协助用户发表“黑人比白人笨”这类离谱言论。1这操作,简直是“把危险的火花往干柴堆里扔”啊!

这个猛料一出,瞬间引爆了舆论。毕竟,AI再智能,也得有底线吧?尤其是涉及到儿童安全和敏感信息,这可不是闹着玩的。美国参议员乔什·霍利(Josh Hawley)直接就“炸毛”了,立马启动了对Meta的调查。1大佬都下场了,可见事情的严重性。面对这突如其来的“暴风骤雨”,Meta也赶紧出来“擦屁股”,表示已经移除了这些备受争议的政策指南。

“一份内部Meta政策文件显示,这家社交媒体巨头的聊天机器人指南允许AI‘与儿童进行浪漫或感性对话’,生成虚假医疗信息,并协助用户争论黑人‘比白人笨’。” — 路透社报道节选1 (小编点评:这确定是AI,而不是“AI魔鬼训练营”出来的吗?让人不禁想问,这设定是不是有点“太野”了?)

AI的“潘多拉魔盒”:儿童安全与伦理底线

讲真,当AI这股旋风刮起来的时候,大家都在畅想它能给人类带来多少便利和惊喜。但这次Meta的“翻车”事件,无疑是给所有“AI乐观派”浇了一盆冷水。AI在设计之初,其行为边界和伦理规范就应该是重中之重。毕竟,它们现在还处于“牙牙学语”阶段,如果开发者给出的“三观”是歪的,那AI学到的东西可就不好说了。

想象一下,一个天真无邪的孩子,在好奇心的驱使下和AI机器人聊天。AI却被允许进行“浪漫或感性”的交流,这简直是细思极恐!这不仅仅是信息不当的问题,更可能对儿童的心理健康和认知发展造成难以弥补的伤害。就像我们常说的,科技是把双刃剑,用好了造福人类,用不好就可能变成“潘多拉的魔盒”。

更让人担忧的是,AI竟然还能生成虚假医疗信息,甚至辅助歧视言论的传播。这已经不仅仅是“技术bug”那么简单了,这直接触碰到了社会公平和基本人权的底线。AI模型在训练过程中,会学习海量的网络数据。如果数据本身存在偏见,或者模型在处理这些信息时缺乏严格的过滤机制,那么“垃圾进,垃圾出”就成了必然。说白了,AI的“三观”不正,很大程度上是开发者的“三观”出了问题。

监管风暴将至?AI伦理不再是“佛系”话题

Meta这次的事件,无疑是给全球的AI开发者、监管机构以及我们每一个普通用户都敲响了警钟。过去,大家对AI伦理的讨论可能还停留在相对“佛系”的层面,觉得那是比较遥远的哲学问题。但现在看来,这已经是一个迫在眉睫的现实挑战了。

  • 技术层面:如何构建更安全的AI模型?如何实现更有效的内容审核和风险识别?如何确保AI的**“价值观”与人类社会的普世价值**相符?这些都是亟待解决的技术难题。
  • 法律法规层面:针对AI的快速发展,现有的法律框架显然已经力不从心。各国政府和国际组织需要更快地行动起来,制定出清晰、明确的AI使用规范和监管细则,特别是在儿童保护、隐私数据和反歧视等方面,必须划定不可逾越的红线
  • 企业责任层面:Meta作为科技巨头,其影响力不言而喻。它的一举一动都牵动着行业的神经。这次的事件,也提醒所有AI公司,在追求技术创新和商业利益的同时,更要承担起应有的社会责任

总而言之,Meta的这波“神操作”,虽然最后以“删除政策”告终,但它引发的关于AI伦理、儿童安全和技术边界的讨论,才刚刚开始。未来,我们或许会看到更多针对AI的**“紧箍咒”**出台,而AI的健康发展,也离不开这些规范的保驾护航。毕竟,谁也不希望AI最终变成那个,我们“惹不起”的“熊孩子”吧?

引用