《人工智能安全治理框架》2.0版性,还可能导致训练偏差、偏⻅歧视放⼤、泛化能⼒不⾜或决策判断输出错 误。 人工智能安全治理框架2.0 - 5 -(d)数据和个⼈信息泄露。⼈⼯智能训练数据蕴含的知识、敏感信息 暗藏于模型参数之中,因模型安全防护机制不健全、敏感信息未“遗忘”、 诱导交互和恶意攻击,可能导致数据和个⼈信息泄露。 3.2 ⼈⼯智能技术应⽤安全⻛险 3.2.1⽹络系统安全⻛险 (a)组件和算⼒安全。⼈⼯ 略、权 限、端⼝、资源的调整配置,易形成新的⽹络攻击⼊⼝和路径。智能体需 调⽤终端系统⽂件、权限、接⼝、⼯具,以实现复杂任务⾃主规划⾃动执 ⾏,加剧⽂件泄露、权限滥⽤等安全⻛险。 (c)供应链安全。⼈⼯智能产业链呈现⾼度全球化分⼯协作格局。但 个别国家利⽤技术垄断和出⼝管制等单边强制措施制造发展壁垒,恶意阻 断全球⼈⼯智能供应链 输出等各环节的数据安全和个⼈ 信息保护要求。对涉及个⼈信息的数据实施去标识化等脱敏处理。加强政务、 ⾦融等重要⾏业领域⼈⼯智能应⽤中的数据安全防护, 防范重要数据、 核 ⼼数据泄露⻛险。 5.11 增进协同应对⼈⼯智能失控⻛险的共识。 加强⼈⼯智能最终⽤ 途管理,对核⽣化导等场景下使⽤⼈⼯智能技术提出相关要求,防⽌⼈⼯ 智能系统被滥⽤。推⼴涵盖技术、0 魔豆 | 92 页 | 30.37 MB | 2 月前3
共 1 条
- 1








