OpenAI 近期在官方博客发布提醒称,随着其下一代人工智能模型的能力迅速增强,由此带来的网络安全风险也被提升至“高”级别。
OpenAI 在文中指出,先进的 AI 模型已不再只是理论层面的威胁。它们极有可能具备研发对防护严密系统有效的零日(zero-day)远程利用漏洞的能力。此外,这些模型还可能在针对企业与工业环境的入侵行动中发挥强力辅助作用,进而引发严重的现实世界安全后果。

OpenAI 的应对与防护策略
面对不断上升的潜在风险,OpenAI 披露其将通过两条路径同步推进防御:
-
加强防御性 AI 能力: 内部团队加大投入,提升模型在防御类网络安全任务中的表现,并积极打造可协助安全人员开展代码审计与漏洞修补的工具,实现“以 AI 之矛,御 AI 之盾”。
-
多重风险控制: 为降低潜在风险,OpenAI 正实施一系列严格防护举措,包括:访问控制(Access Control),基础设施加固(Infrastructure Hardening),出口控制(Egress Control),持续监测(Continuous Monitoring)。
推出新计划与设立顾问机构
为进一步强化对外协作与风险治理,OpenAI 宣布两项关键举措:
-
分级访问增强计划: OpenAI 计划推出新方案,面向符合条件、从事网络防御的用户与企业提供分级访问增强功能,助力其开展防御工作。
-
成立 Frontier Risk Council: OpenAI 将设立名为 “前沿风险委员会”(Frontier Risk Council) 的顾问机构。该委员会将邀请资深的网络防御专家与安全从业人员与内部团队紧密合作。其初期重点聚焦网络安全,并计划未来扩展至其他前沿技术领域,以应对更广范围的风险挑战。


















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?