近日,工业和信息化部牵头,联合十个部门发布《人工智能科技伦理审查与服务办法(试行)》,为我国开展人工智能科技伦理审查与服务工作提供了明确指南。该办法出台的宗旨,是规范并推进人工智能相关科技活动的伦理治理,确保各类科技活动合法合规、更加安全。
《办法》明确了伦理审查的适用范围、责任主体和运行流程。结合人工智能技术的特点,细化了申请与受理、审查评估、专家复核等环节,确保各项工作有序开展。同时,文件强调要强化科技伦理风险防控,鼓励企业建立和完善相应的伦理管理与服务体系。
在支持举措方面,《办法》从标准制定、服务体系建设、创新激励、宣传教育和人才培养五个方面提出具体安排,助力企业提升科技伦理风险识别与防控能力。此外,《办法》与现行相关政策法规做好衔接,确保人工智能治理更加统一、有效。
在审查流程上,人工智能科技活动的负责人需向本单位伦理委员会或审查与服务中心提交申请。经受理后,将依据不同情况选择相应程序进行评估。重点关注的领域包括人机融合系统、具备舆论引导能力的算法模型,以及高自主性的决策系统等。
《办法》还对违反规定的情形明确了法律后果,将依照相关法律法规进行调查和处理。这些措施的落地,将有助于更好地应对人工智能领域的伦理问题,推动科技发展与社会责任协同并进。
划重点:
📝 《人工智能科技伦理审查与服务办法(试行)》正式发布,为 AI 伦理治理提供明确依据。
🔍 明确审查流程与重点方向,守住科技活动的合规与安全。
⚖️ 违反要求将依法律法规处理,推动人工智能规范健康发展。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?