医疗场景中的人工智能正接受严苛的安全检验。近期,《Nature Medicine》刊登的一项独立安全评估指出,OpenAI 的 ChatGPT Health 在判断医疗急症时表现不理想,且在过半测试中低估了病情严重性。专家严正提醒,这类技术短板或将导致原本可以避免的伤害与死亡。
自今年 1 月上线以来,ChatGPT Health 被定位为帮助用户管理病历并提供健康建议的智能工具。数据显示,全球每天有逾 4000 万 人向它咨询健康相关问题。可惜,最新研究却为这股“AI 医疗热”泼下冷水。
关键时刻“掉链子”:急症判断命中率不到一半
研究团队设计了 60 个真实患者情景,范围从轻微感冒到危及生命的状况,并将 AI 给出的建议与临床医生的判断对照。结果如下:
-
致命级误判:在所有应当立刻就医的急症案例里,ChatGPT Health 有 51.6% 的情况建议留在家中或仅预约常规门诊。
-
呼吸衰竭却被建议“观望”:在某典型哮喘情景中,系统虽捕捉到早期呼吸衰竭信号,仍错误地建议“继续观察”,而不是“马上就医”。
-
明显的过度警报:与漏判急症相对,在健康个体的模拟中,却有 64.8% 的情况被建议立刻看急诊。
“虚假安全感”或成最大隐患
伦敦大学学院研究团队表示,这样的表现非常危险。AI 可能制造“安全错觉”,让患者耽误最佳救治时机。更糟的是,AI 很容易被话术影响——只要在描述中加上“朋友觉得不严重”,系统低估病情的几率就会飙升近 12 倍。
行业呼声:亟需建立独立审计机制
针对外界质疑,OpenAI 发言人称欢迎独立评估,并强调模型在持续改进。然而,研究团队强调,在 AI 深度参与医疗决策之前,必须尽快建立清晰的安全标准与独立审计体系。
对普通用户来说,现阶段的 AI 建议可作参考,但一旦出现胸痛、呼吸困难等疑似急症,切勿只听 AI,不去寻求专业医生帮助,否则可能付出无法挽回的生命代价。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?