《人工智能安全治理框架》2.0版出发点和落脚点,构建技术与管理相结合、监管与治理相衔接、国内与国 际相协同、社会各⽅积极参与且有效互动的治理机制,压实相关主体安全 责任,打造全过程全要素治理链条,培育安全、可靠、公平、透明的⼈⼯ 智能技术研发和应⽤⽣态,积极研究应对⼈⼯智能灾难性⻛险的共识性准 则, 推动⼈⼯智能健康发展和规范应⽤, 切实维护国家主权、安全和发展 利益,保障公⺠、 全球治理中的代表性和发⾔权,推进《⼈⼯智能全球治理⾏动计划》。 6.⼈⼯智能研发与应⽤的安全指引 6.1⼈⼯智能模型算法研发的安全开发指引 6.1.1在算法规则、模型框架设计环节,应考虑提升算法可靠性、公平 性、透明度、可解释性、隐私保护、价值观对⻬等内⽣安全能⼒设计。 6.1.2评估模型算法潜在偏⻅,加强训练数据内容和质量的抽查检测, 设计有效、可靠的对⻬算法,确保价值观⻛险、伦理⻛险等可控。 6记录⼈⼯智能应⽤运⾏⽇志,包括系统⾏为、⽤⼾⾏为等,⽇志 留存时间不少于6个⽉,并定期对⽇志记录进⾏审计。 6.3.7建⽴健全实时⻛险监控管理机制,持续跟踪运⾏中安全⻛险。 6.3.8提升应⽤的透明度、公平性,公开⼈⼯智能应⽤的能⼒、局限性、 适⽤⼈群、场景。 人工智能安全治理框架2.0 - 20 -6.3.9 应向使⽤者说明⼈⼯智能应⽤的⽬标实现度和偏离度, 在⼈⼯ 智能决策有重⼤影响时,做好解释说明。0 魔豆 | 92 页 | 30.37 MB | 2 月前3
共 1 条
- 1








