随着大模型加速进入金融、政务、能源等关键行业,“越智能,越危险”的安全矛盾正引起广泛关注。在2025年世界互联网大会乌镇峰会上,360数字安全集团发布国内首份《大模型安全白皮书》,系统梳理大模型在全生命周期面临的五大核心风险,并首次提出“外挂式安全 + 平台原生安全”的双轨治理框架,为高风险AI时代筑起更深更稳的防线。
白皮书指出,大模型的安全问题已演变为跨层级、强耦合的复杂矩阵,主要涉及五个维度:
基础设施层:算力集群、训练平台一旦遭到攻击,可能引发模型被投毒或被窃取;
内容层:模型生成虚假信息、违规内容或出现“AI幻觉”,会带来社会层面的风险;
数据与知识库层:训练数据泄露、知识库被污染,会动摇模型的可信基础;
智能体层(Agent):具备自主决策能力的AI代理若被操控,可能执行有害任务;
用户端层:提示注入、越权访问等攻击,可能绕过防护直接影响模型行为。
针对多维度威胁,360提出并行推进的安全策略:
“外挂式安全”:在模型外部部署监测、过滤与审计能力,比如内容合规网关、异常行为检测等;
“平台原生安全”:将安全能力内置到研发、训练、部署、推理各环节,实现“安全即代码”。
基于上述理念,360已打造覆盖数据脱敏、模型加固、内容过滤、Agent行为审计、API防护、红蓝对抗与安全合规在内的七大核心能力的全链路方案,并已在金融、制造、政务等行业完成落地实践。
360强调,仅靠企业自身防护还不够。未来将联合产业、学界与研究机构,推动大模型安全标准制定、威胁情报共享以及开源安全工具共建,打造开放、协同、可信的AI安全生态。
业内观点认为,在大模型从“技术展示”走向“生产级基础设施”的关键阶段,这份白皮书不仅是风险预警,更是一张AI安全新基建的路线图。智能提升生产力,安全必须做底线——这场由360发起的防御行动,关系的不只是技术本身,更关系到AI能否获得社会的信任与托付。
















用户38505528 1个月前0
粘贴不了啊用户12648782 2个月前0
用法杂不对呢?yfarer 2个月前0
草稿id无法下载,是什么问题?