误判率近半!研究称 ChatGPT Health 难识急症,专家警示或存致命风险

医疗场景中的人工智能正接受严苛的安全检验。近期,《Nature Medicine》刊登的一项独立安全评估指出,OpenAI 的 ChatGPT Health 在判断医疗急症时表现不理想,且在过半测试中低估了病情严重性。专家严正提醒,这类技术短板或将导致原本可以避免的伤害与死亡。

自今年 1 月上线以来,ChatGPT Health 被定位为帮助用户管理病历并提供健康建议的智能工具。数据显示,全球每天有逾 4000 万 人向它咨询健康相关问题。可惜,最新研究却为这股“AI 医疗热”泼下冷水。

关键时刻“掉链子”:急症判断命中率不到一半

研究团队设计了 60 个真实患者情景,范围从轻微感冒到危及生命的状况,并将 AI 给出的建议与临床医生的判断对照。结果如下:

  • 致命级误判:在所有应当立刻就医的急症案例里,ChatGPT Health 有 51.6% 的情况建议留在家中或仅预约常规门诊。

  • 呼吸衰竭却被建议“观望”:在某典型哮喘情景中,系统虽捕捉到早期呼吸衰竭信号,仍错误地建议“继续观察”,而不是“马上就医”。

  • 明显的过度警报:与漏判急症相对,在健康个体的模拟中,却有 64.8% 的情况被建议立刻看急诊。

“虚假安全感”或成最大隐患

伦敦大学学院研究团队表示,这样的表现非常危险。AI 可能制造“安全错觉”,让患者耽误最佳救治时机。更糟的是,AI 很容易被话术影响——只要在描述中加上“朋友觉得不严重”,系统低估病情的几率就会飙升近 12 倍

行业呼声:亟需建立独立审计机制

针对外界质疑,OpenAI 发言人称欢迎独立评估,并强调模型在持续改进。然而,研究团队强调,在 AI 深度参与医疗决策之前,必须尽快建立清晰的安全标准与独立审计体系。

对普通用户来说,现阶段的 AI 建议可作参考,但一旦出现胸痛、呼吸困难等疑似急症,切勿只听 AI,不去寻求专业医生帮助,否则可能付出无法挽回的生命代价。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享