OpenAI调整ChatGPT规则:10月29日起不提供医疗、法律与财务建议

OpenAI于10月29日正式更新ChatGPT使用政策,明确规定模型不得提供专业性的医疗、法律或财务建议。此举旨在规避监管风险、降低误导可能,并重新界定AI在高风险领域的应用边界。新规重点包括:拒绝解读医学影像、拒绝提供诊断辅助、不得起草或解读法律合同,以及不提供个性化投资策略或税务规划。

ChatGPT

当用户提出上述需求时,系统将统一引导其咨询人类专家。该政策覆盖ChatGPT的全部模型与API接口,确保执行口径一致。专业人士仍可将其用于一般性概念讨论或数据整理,但不得直接面对终端用户输出具“受托责任”性质的建议。此次调整受到全球监管趋势推动:欧盟《人工智能法案》即将生效,将高风险AI纳入更严格审查;美国FDA对诊断类AI工具要求临床验证。OpenAI此举既避免被界定为“软件即医疗设备”,也有助于降低潜在诉讼风险。业内普遍认为,这是对欧盟罚款上限(最高可达GDP的6%)及美国法律风险的前瞻性应对。

用户反馈呈两极分化。一些个人用户对失去“低成本咨询”渠道表示遗憾,称过去依赖AI来节省专业费用;而医疗与法律从业者大多支持,认为AI的“伪专业”输出容易引发误诊或纠纷。相关数据称,超过40%的ChatGPT提问属于建议类,其中医疗与财务合计占比近30%,该政策可能带来短期流量回落。对行业的影响也将持续:Google、Anthropic等或将跟进限制,垂直领域AI工具(如合规认证的法律/医疗模型)有望兴起。国内方面,百度等企业已提前加强合规,在日益趋严的监管下,创新预计将在“沙盒”机制中推进。

OpenAI强调,其目标是“在创新与安全之间取得平衡”。本次更新延续其Model Spec框架,预计在2025年2月进一步迭代。AI从“全能助手”向“有限辅助”转型的趋势已成共识。未来,技术突破与伦理约束将并行推进,GPT-5时代或带来新的平衡点。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享