《人工智能安全治理框架》2.0版....... 5.1建⽴健全⼈⼯智能安全法律法规.......................................................... 5.2构建⼈⼯智能科技伦理准则.................................................................. 5.3提升研发应⽤全⽣命周期安全能⼒.......... ⼈⼯智能既存在模型算法缺陷、 数据语料质量问题等技术内⽣安全⻛ 险,也存在技术整合交付应⽤时的⽹络系统、信息内容等⽅⾯应⽤安全⻛ 险,还⾯临技术误⽤、滥⽤、恶⽤冲击现实社会环境、⼈类认知伦理的衍 ⽣安全⻛险,甚⾄是灾难性⻛险。 3.1⼈⼯智能技术内⽣安全⻛险 3.1.1模型算法安全⻛险 (a)可解释性不⾜。以深度学习为代表的⼈⼯智能算法运⾏逻辑复杂, 推理过程不 的算⼒设施⽆序建设、轻量 模型碎⽚化部署、同质化模型低效重复开发等问题,加速电⼒、⼟地、⽔ 等能源资源消耗,对资源供需平衡、绿⾊低碳发展带来新的挑战。 3.3.2伦理安全⻛险 (a)加剧社会偏⻅、扩⼤智能鸿沟。利⽤⼈⼯智能收集分析⼈类⾏为、 社会地位、经济状态、个体性格等,对不同⼈群进⾏标识分类、区别对待, 带来系统性、结构性0 魔豆 | 92 页 | 30.37 MB | 2 月前3
“云南造车大神”事件舆情分析报告示 平台(如地方创意集市、汽车文化节静态展),将其个人创 造与公共安全教育、汽车文化普及相结合,实现价值转化。 技术分析的加入,使“云南造车大神”事件超越了简单 的社会新闻,成为一堂关于工程伦理、技术创新边界与公共 责任的公开课。妥善处理此事,将对规范民间创造、普及安 全意识产生深远影响。0 魔豆 | 4 页 | 180.99 KB | 27 天前3
共 2 条
- 1








