《人工智能安全治理框架》2.0版型的开 源,加剧模型缺陷扩散速度、影响范围和修补难度,为不法分⼦训练“作 恶模型”提供便利。 3.1.2 数据安全⻛险 (a)违规收集使⽤数据。⼈⼯智能训练数据的获取,以及服务、交互 过程中,存在未经同意收集、不当使⽤数据和个⼈信息的安全⻛险。 (b)训练数据内容不当。训练数据包含虚假、偏⻅、侵犯知识产权等 违法有害内容,还⾯临攻击 现有管控体系失效,加剧世界各地区和平安全威胁。 人工智能安全治理框架2.0 - 7 -3.2.4认知安全⻛险 (a)加剧“信息茧房”效应。 ⼈⼯智能将显著提升信息服务定制化能⼒, 更为准确地收集⽤⼾信息,分析⽤⼾需求、意图、喜好、⾏为习惯,甚⾄特 定时段、特定群体的意识思潮,进⽽推送精准定制化信息服务,加剧⽤⼾所 关注信息的局限性。 (b)助⼒开展认知战。⼈ 发等问题,加速电⼒、⼟地、⽔ 等能源资源消耗,对资源供需平衡、绿⾊低碳发展带来新的挑战。 3.3.2伦理安全⻛险 (a)加剧社会偏⻅、扩⼤智能鸿沟。利⽤⼈⼯智能收集分析⼈类⾏为、 社会地位、经济状态、个体性格等,对不同⼈群进⾏标识分类、区别对待, 带来系统性、结构性的社会歧视与偏⻅。同时,拉⼤不同地区⼈⼯智能鸿沟。 (b)冲0 魔豆 | 92 页 | 30.37 MB | 2 月前3
共 1 条
- 1








