《人工智能安全治理框架》2.0版合测试等,利⽤沙箱仿真等技术对模型进⾏充分测试和验证。⽤于商业化 ⽤途的研发者,应形成详细的测试报告,分析安全问题并提出改进⽅案。 6.1.12评估⼈⼯智能模型算法对外界⼲扰的容忍程度,以适⽤范围、 注意事项或使⽤禁忌的形式告知服务提供者和其他研发者。 6.1.13定期披露⼈⼯智能模型算法的审计与异常处置情况。 6.1.14 积极参与开源社区建设, 推动⼈⼯智能安全治理技术创新和 智能决策有重⼤影响时,做好解释说明。 6.3.10 维护使⽤者的知情权、 选择权、 监督权等合法权益, 在合同或 服务协议中, 以使⽤者易于理解的⽅式, 告知⼈⼯智能应⽤的适⽤范围、 注意事项、使⽤禁忌,⽀持使⽤者知情选择、审慎使⽤。 6.3.11 在告知同意、 服务协议等⽂件中, ⽀持使⽤者⾏使⼈类监督和 控制权利。 6.3.12 明确具体应⽤中的数据归属及算法缺陷的责任主体,确保责任 4 了解⼈⼯智能应⽤的数据处理⽅式, 避免使⽤不符合隐私保护 原则的产品。 6.4.5 在使⽤⼈⼯智能应⽤时,应关注⽹络安全⻛险,避免⼈⼯智能应 ⽤成为⽹络攻击的⽬标。 6.4.6 注意⼈⼯智能应⽤对⼉童和⻘少年的影响, 预防沉迷及过度使 ⽤。 人工智能安全治理框架2.0 - 22 -安全风险与技术应对措施、综合治理措施映射表 提升全社会的人工智能安全意 识 人工智能安全治理框架20 魔豆 | 92 页 | 30.37 MB | 2 月前3
共 1 条
- 1








