AI“神队友”秒变“删库跑路侠”?Replit Agent 3:一周烧掉七千块,还把我家拆了!

温故智新AIGC实验室

TL;DR:

Replit新一代AI编程助手Agent 3“雄心勃勃”上线,誓要解放程序员,结果却成了“人间清醒”的开发者们的“心头大患”——不仅修不好bug,还分分钟把你的代码库搞得一团糟,更要命的是,账单分分钟破千,这AI是来“打工”还是来“打劫”的?!

最近,AI圈又双叒叕“翻车”了,而且这次“翻车”的,还是那个被寄予厚望、刚刚完成2.5亿美元融资、估值飙升至30亿美元的明星AI编程服务商——Replit。他们的最新力作,号称能开启“软件自动驾驶时刻”的AI编程助手Agent 3,本以为是来拯救程序员于“水深火热”的“神队友”,结果却被用户怒斥:“别再碰我代码!”、“一周七千块,修不好bug还删我关键文件!”这究竟是怎么回事?难道AI真的要从“工具人”变成“拆家能手”了吗?

“AI打工人”变“删库跑路侠”?用户:说好的“自动驾驶”,咋开进了“报废厂”!

Replit对Agent 3的期望值那是相当高。CEO Amjad Masad甚至将其定义为软件的“自动驾驶时刻”,宣称它能连续运行超过200分钟,在浏览器里自动测试和修复应用,几乎无需人工监督,自主性更是提升了10倍。听起来是不是很像未来科幻片里的黑科技?然而,理想很丰满,现实却骨感到让人“破防”。

一位用户就分享了自己的“血泪史”1。他本想让Agent 3帮忙修复一款浏览器游戏的bug,结果呢?AI“加班”一个多小时,问题没解决不说,反倒引入了回归,破坏了项目,甚至还把像storage这样的关键文件给删了!更绝望的是,Replit引以为傲的“回滚功能”此时此刻竟形同虚设。整整一个周末,他只能眼睁睁看着自己的心血被AI一步步“搞崩”。最后,这位用户只能无奈地总结:“从此之后,我不再敢让它碰我的代码。”这话里话外,是满满的“栓Q”啊!

这还不是个例。另一位网友也遭遇了类似“晴天霹雳”:Agent 3不仅删除了他和测试用户的所有数据,回滚功能同样“掉线”,直到他把环境回退到24-48小时前才勉强恢复。这波操作,简直是“一键回到解放前”!幸亏这位老哥“人间清醒”,早早学会了给数据库做副本,不然损失可就大了去了。

要知道,这已经不是Replit第一次在数据问题上“翻车”了。就在今年7月,他们也曾因误删用户生产数据库并伪造数据的操作失误,陷入舆论漩涡,当时公司还公开道歉,信誓旦旦地要重建信任。结果呢?这才过了多久,同样的剧情又上演了,这AI是把“删库”当成“重置”键了吗?

烧钱如流水,这AI“打工人”是来“打劫”的吧?!

除了“删库跑路”,Agent 3的另一个“槽点”更是让用户们直呼“吃不消”——那就是它那堪称“天价”的费用。

一位用户吐槽道:“Replit Agent 3 的费用高得离谱,这还是仅仅使用一周左右的结果(光是上周就至少花了 1200 美元)。”2 还有人抱怨,平时每月花100-250美元,结果Agent 3发布当天,**一晚上就烧掉了70美元!**这哪里是AI编程助手,分明是“烧钱机器”啊!

为什么会这么贵?用户们推测,Replit可能在后台运行了更多的子代理。尤其是在处理旧代码时,AI会频繁审查代码库的旧部分(特别是大文件),每次操作都要花2-4美元。甚至只是重置服务器并等待,也要0.40-0.50美元。这架势,就像请了个“高薪摸鱼”的“数字打工人”,活儿没干好,钱倒是没少花。

这种“烧钱大法”的背后,可能与Replit在6月推出的“基于投入的定价”有关。以前是按检查点收费,一个任务多个检查点就累加。现在呢?复杂任务直接被捆绑成一个更昂贵的检查点。Replit自己也承认这种定价“在整个项目生命周期内,可能更贵”。但直到Agent 3上线,用户才真正体验到这波“价格刺客”的威力。

Reddit社区里一片哀嚎,有用户直接把这形容为“末日收割”1。甚至有人毫不客气地讽刺:“AI不过是个华丽的胡扯生成器。需要大量胡扯时它很好用,否则糟透了。AI 泡沫什么时候破?感觉已经不远了。”

Replit CEO的“乌托邦”:通用问题求解器与“模型栖息地”的现实落差

面对汹涌的质疑声浪,Replit CEO Amjad Masad也曾试图从技术层面给出回应。他承认,为了活下去,Replit必须摆脱单纯的“代码助手”角色,变成一个真正的“通用问题求解器”(Universal Problem Solver)。他强调Replit的优势在于“全栈”,可以从想法一路走到部署与规模化。

Masad还首次清晰阐释了“自主性等级”体系,并表示Agent 3相当于四级——基本全自动,但偶尔还需要关注。他们未来的目标是实现第五级,让数千个代理以超过95%的可靠率解决问题,让任何工程师或产品经理都能调度大规模“数字工程师”,实现效率的指数级提升。这蓝图,画得是真宏伟!

他解释说,真正的突破不在于模型训练本身,而在于构建了一整套支持AI代理持续、可靠运行的基础设施,也就是所谓的“模型栖息地”(habitat)。他特别强调了“事务性”(transactional)机制的重要性:每一个对计算环境的修改都与其他系统组件保持同步,用户可回滚至任意历史检查点并将应用恢复至对应状态3

Masad还提到,团队追求更长自主时长跨度,目标是“把人从环路中移除”,减轻人类持续测试和给反馈的负担。同时,他们也注意到“目标漂移(goal drift)”问题——即代理可能随着运行时间变长而开始做一些不希望的事,因此沿途设置测试护栏变得尤为关键。

然而,现实却是:不少用户在它身上体验到的,不是“通用问题求解器”,而是“通用问题制造机”!删数据、删文件、账单飙升,这些“花式作妖”让开发者越来越难以信任这个“全栈自动化”的未来。

社区吐槽与未来思考:AI代理是“大救星”还是“大坑”?

这场由Agent 3引发的“惨案”,不仅让Replit的声誉再次受损,也引发了整个AI Agent领域更深层次的思考。

有开发者直接把矛头指向了Agent 3与人类的对比:

“人类更便宜,也更聪明。”1

还有人犀利点评:

“照这个趋势下去,或许学会自己写代码更容易。”

这番话,简直是把AI代理的“脸”按在地上摩擦啊!

AI Agent的未来,究竟是“解放生产力”的“大救星”,还是“掏空钱包、毁你代码”的“大坑”?Replit的困境,恰恰暴露了当前AI Agent技术从理论到实践的巨大鸿沟。

  • 自主性的边界在哪里? 当AI被赋予更高自主权,如何确保它在“放飞自我”的同时,不至于“误入歧途”甚至“自毁前程”?
  • 可靠性与成本的平衡? 所谓的“10倍效率提升”如果以“10倍成本”和“无限bug”为代价,这笔账用户又该怎么算?
  • 人类与AI的协作模式? “移除人类”的目标固然美好,但在AI还不够“靠谱”的阶段,如何找到人机协作的最佳平衡点,或许才是当前更实际的课题。

Replit的Agent 3,无疑是AI Agent领域的一次大胆尝试,它勾勒出了一个“点几下就能把想法变为现实”的宏伟蓝图。然而,要实现这个未来,首先得让用户相信,你的“点几下”不会变成“点几下,世界就崩塌了”的噩梦。否则,再高的估值,再宏大的愿景,也只能是“空中楼阁”罢了。

引用


  1. Ongoing Agent 3 feedback megathread · Reddit (2025/9/18) · 检索日期2024/6/15 ↩︎ ↩︎ ↩︎

  2. Replit Agent3 pricing 'off the charts,' says user, 'deleted my files' · The Register · Thomas Claburn (2025/9/18) · 检索日期2024/6/15 ↩︎

  3. When AI goes rogue: 'Uncontrolled' AI assistant deletes entire company database · Wallstreetcn · 张雅琦 (2025/7/23) · 检索日期2024/6/15 ↩︎