«

谷歌紧急下线AI健康功能,一名患者差点因此错过治疗。

qimuai 发布于 阅读:2 AI新闻


谷歌紧急下线AI健康功能,一名患者差点因此错过治疗。

最新AI落地实操,点击了解:https://qimuai.cn/

当我开始用AI给自己看病……谷歌给我敲响了警钟

朋友们,你有过这样的经历吗?

身体有点小状况,又不想马上去医院排队,于是,你下意识地打开了搜索引擎。敲下几个症状关键词,然后在那些五花八门的回答和论坛帖子里,试图“自我诊断”。

别不好意思,这几乎是当代人的共同习惯。而现在,科技巨头们想把这个过程变得更“丝滑”。谷歌推出了AI概览功能,试图把复杂信息整理成清晰摘要,直接喂到你嘴边。

听起来很美,对吧?直到它“翻车”了。

最近,谷歌紧急下线了部分健康相关的AI概览。原因让人心头一紧:它提供的信息,可能存在误导性,甚至可能延误真正需要治疗的病人。

问题出在哪儿?

《卫报》的调查揭开了盖子。当用户搜索如“正常肝脏血液检测范围”这类问题时,AI给出的,是一个看似权威的“标准答案”。但它忘了最核心的一点:人不是标准化的零件。

它给出的参考范围,没有区分国籍、性别、种族,更别说年龄和个体健康状况。一份对张三来说“正常”的肝功能数值,放在有特定病史的李四身上,可能已是危险信号。

想象一下:一位重症患者,拿着自己的化验单,对比这个AI给的“笼统标准”,然后长舒一口气——“嗯,我还在正常范围里。” 他可能因此错过关键的复查窗口。

这太可怕了。关乎健康与生命的信息,容不得一丝“大概齐”。

谷歌的反应算快。已经移除了“正常肝脏血液检测范围”、“肝功能检测范围”等关键词的AI概览。

但,治标了吗?你换个方式搜“LFT参考范围”,AI摘要还在。问题的根子,似乎没彻底挖掉。

谷歌的回应,也颇值得玩味。发言人表示,不会对个别结果置评,但承诺会“更广泛地改进”。他们的内部临床医生团队审核后认为,很多信息“并非不准确”,且有高质量网站支持。

这话翻译过来是:我们给的数据本身没错,只是太“粗线条”,没结合具体语境。

但健康这事,也能如此大而化之吗?

英国肝脏信托基金的专家一针见血:谷歌的局部下线是“好消息”,但更大的问题悬而未决——AI在医疗健康领域的根本性准确难题,依然横在那里。

这记警钟,不只是敲给谷歌的。它为我们所有人,尤其为所有试图用AI重塑垂直领域的开发者,拉响了警报。

我们兴奋于AI的无所不能,用它写诗、作画、编程。可当它触及医疗、法律、金融这些容错率极低的领域时,那份兴奋必须立刻转为敬畏与审慎。

技术可以追求泛化,但关怀必须细化到个体。

AI模型再强大,目前也缺乏人类医生的临床经验和综合判断力。它看不到你的家族病史,感受不到你近期的疲惫,更无法在对话中捕捉到你语气里的细微焦虑。

这次事件不是一个简单的“产品bug”,而是一个深刻的行业启示:在专业门槛极高的领域,AI的落地必须配套更严格的审核机制、更清晰的责任边界,以及最重要的——对人性的周全考量。

别误会,我绝非唱衰AI。相反,我比谁都相信它的潜力。

只是我们需要明白:让AI成为“超人助手”之前,必须先给它系好“安全带”。尤其是在那些我们脆弱、需要依靠的领域。


所有领域都值得用AI重做一遍。本文作者承接各种AI智能体和AI全域营销自动化软件、工作流开发,了解加微信:qimugood(读者也可此微信一起交流)。

AI每日进展

文章目录


    扫描二维码,在手机上阅读