谷歌版“赤脚医生”下线!AI 乱教治病被骂到“退群”,这届网友的命也太硬了

温故智新AIGC实验室

TL;DR:

谷歌最近紧急下线了一项“让 AI 搬运路人医疗建议”的搜索功能,毕竟让算法去 crowdsource 陌生人的偏方实在太离谱。研究发现这届 AI 宁愿信 YouTube 博主也不信正经医生,网友直呼:再不关停,这病恐怕是越治越“有判头”了。

这年头,大家身体不舒服第一反应不是挂号,而是先问问“赛博华佗”谷歌。但谷歌显然觉得这火烧得还不够旺,前阵子甚至整了个叫 “What People Suggest”(大家怎么说) 的新活——让 AI 汇总全球网友的“民间智慧”给你看。

愿景很丰满,说是要“利用 AI 潜力转化全球健康成果”1;现实很骨感,这功能刚上线没多久,就被谷歌自己亲手给毙了。原因很简单:大家发现,这 AI 哪里是正经医生,分明是个在互联网贴吧里到处乱串、听风就是雨的“民科大V”。

技术大揭秘:当 AI 变成了“互联网贴吧大神”

谷歌原以为 AI 能像个资深编辑一样,把全世界的健康小妙招去粗取精。但实际上,AI 的逻辑往往是:谁说话声音大(SEO 做得好),我就听谁的。

根据一份针对 5 万多笔健康搜索的深度调研,谷歌 AI 摘要在回答医疗问题时,最爱引用的来源居然是 YouTube,占比高达 4.43%2。对比之下,政府卫生机构和学术期刊的引用率加起来才勉强凑够 1%。

“这就好比你问医生怎么治胰腺癌,AI 却把你带到了一个卖养生壶的直播间,还用一种‘我确信这就是标准答案’的语气跟你说话。”

这种“过度自信”的语气正是最要命的地方。研究指出,AI 摘要往往以单一、权威的口吻呈现答案,导致用户产生一种“这就是最终结论”的错觉,甚至直接略过下方的专业医疗链接2

行业“地震”:谁在为算法的“迷之自信”买单?

说白了,AI 并不理解什么是“医学严谨性”,它只理解“数据相关性”。对于它来说,一篇由食品公司写的“带货软文”和一份同行评审的医学论文,在权重上可能差不了多少,甚至前者因为“通俗易懂”更容易被 AI 抓取。

尤其是在中文语境下,这种风险被成倍放大。由于繁体/简体中文的专业医疗内容相对匮乏,AI 经常会把英文医学术语进行“简陋版”转译,甚至混淆不同地区的临床标准2

  • 搜索即答案的代价: 过去我们搜资料是“货比三家”,现在 AI 直接喂到嘴边。这种“信息劳动外包”让很多人在看医生前就先给自己判了死刑,或者预设了错误的疗法,极大地增加了医患沟通的“修罗场”难度。
  • SEO 玩家的狂欢: 既然 AI 喜欢引用高流量内容,那商业公司只需要把关键词堆得漂亮点,就能轻松入驻 AI 摘要的“黄金位”2

未来预测:AI 医疗的下半场是“求生欲”

谷歌这次“认怂”撤回功能,本质上是一场关于 AI 伦理和安全的及时止损。虽然 AI 在影像识别、辅助诊断(比如在印度进行的结核病和癌症筛查)方面表现惊艳3,但在直接给普通人“开药方”这件事上,大模型显然还没通过实习期。

调侃一下: 如果 AI 摘要以后在每句话后面都加一句“以上建议纯属算法瞎编,生病请务必看医生”,那它的可信度反而可能提高那么一点点。

目前,谷歌已经在 AI 摘要底部加了一行灰色小字警示,提醒内容可能出错。但对于那些连“显示更多”都不点开的“急性子”网友来说,这行字显然起不到什么保命作用2

引用


  1. Google scraps AI search feature that crowdsourced amateur medical advice · The Guardian · (2026/3/16) · 检索日期2026/3/16 ↩︎

  2. 「Google AI摘要的健康建議可能帶有錯誤資訊」專家意見 · SMC台灣科技媒體中心 · (2026/1/14) · 检索日期2026/3/16 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  3. Health AI - Google AI · Google AI · (2026/3/16) · 检索日期2026/3/16 ↩︎