《人工智能安全治理框架》2.0版...................................................... 61 61 62 62 65 67 70 72 76 79 82人工智能安全治理框架2.0 前 言 ⼈⼯智能是⼈类发展新领域, 深刻改变⼈类⽣产⽣活⽅式, 给世界带 来前所未有发展机遇, 也带来前所未遇⻛险挑战。 落实《全球⼈⼯智能治 理倡议 开源业态新挑战,综合运⽤技术、管理措施,防范应对不同类型⻛险。围绕 ⼈⼯智能研发应⽤⽣态链,明确模型算法研发者、服务提供者、系统使⽤者 1.⼈⼯智能安全治理原则 人工智能安全治理框架2.0 - 2 -等主体的安全责任,有机发挥政府监管、⾏业⾃律、社会监督等治理机制 作⽤。 1.4 开放合作、共治共享。在全球范围推动⼈⼯智能安全治理国际合 服务提供者、⽤⼾、政府部 ⻔、社会组织等各⽅发现、防范、应对⼈⼯智能安全⻛险的措施⼿段,以及 深化⼈⼯智能安全治理国际交流合作等建议,推动相关各⽅协同共治。 人工智能安全治理框架2.0 - 3 -2.4 研发与应⽤的安全指引。提出模型算法研发、建设部署、运⾏管理, 以及访问使⽤的引导性安全规范。此外,针对潜在的技术失控⻛险,提出可 信⼈⼯智能基本准则,引导国际社会共识。0 魔豆 | 92 页 | 30.37 MB | 2 月前3
人工智能、深度伪造与政治选举(四)人工智能、深度伪造与政治选举(四) 四、人工智能对 2024 年全球政治选举的影响 如今,人工智能开始在政治选举中崭露头角,但它与政 治的融合既带来希望也带来陷阱。有专家推测,人工智能可 能在 2024 年对全球政治选举安全构成威胁,它们可能成为 错误信息的主要来源。[1]利用人工智能深度伪造的宣传威 胁对各国政治选举的影响不容小觑,特别是美国大选是全球 应对人工智能技术挑战的重大选举。 应对人工智能技术挑战的重大选举。 1.人工智能重新定义政治选举参与方式。2024 年 2 月 8 日,巴基斯坦国民议会选举投票在下午结束。由于发生多起 袭击事件,最终投票结果迟迟未能出炉,伊姆兰·汗和纳瓦 兹·谢里夫两名前总理分别宣布胜选。不过,他们宣布获胜 的方式截然不同。10 日凌晨,伊姆兰·汗所在的正义运动党 (PTI)通过伊姆兰·汗(Imran Khan)的 X 账号发布一段 人工智能制作的“真人讲话”视频宣布获胜。“你们兑现了 3 年,2024 年 1 月又因为泄 露国家秘密罪和非法出售国礼罪分别被判刑 10 年和 14 年, 一直在监狱中服刑。不过,伊姆兰·汗在入狱后仍多次通过人工智能视频向支持者发表讲话。早在 2023 年 12 月,正义 运动党就利用人工智能生成带有伊姆兰·汗照片的视频向支 持者发表讲话。这段讲话视频是在正义运动党的一个网上集 会上播放的,在 YouTube 上吸引 150 多万次观看,在其他社0 魔豆 | 7 页 | 189.76 KB | 4 月前3
人工智能、深度伪造与政治选举(三)人工智能、深度伪造与政治选举(三) 三、人工智能对政治选举结果的实际影响 深度伪造技术可能会对政治选举产生前所未有的影响, 对国家选举、政策制定以及社会可信度提出严峻挑战。[1] 我们不得不思考,有多少选票是通过深度伪造对政治选举实 施操纵性影响而产生的?这些选票又对政治选举结果产生 了多大影响? 1. 人工智能在一定情况下对政治选举结果可能具有决 定性作用。2023 年的土耳其总统选举,就像是人工智能干预 年的土耳其总统选举,就像是人工智能干预 政治选举的一场预演。人工智能、深度伪造和虚假信息成为 土耳其 45 天选举周期的关键部分。在 5 月 14 日第一轮投票 的前几天,土耳其独立媒体 140journos 选举系列节目使用人 工智能图像生成器 Midjourney 和 人工智能文本生成器 Chat GPT,为土耳其的未来提供了两种叙述。第一个故事描绘了 一个失败且刚刚退休的总统雷杰普·塔伊普·埃尔多安(Re 弃权力,土耳其成为一个旨在“建立世界和平”的星球大战 式帝国。当被问及“取得这一成功的最大挑战是什么?”时,冒充埃尔多安的人工智能回答说:“我们最大的挑战之一是 跟上世界和宇宙的新秩序,密切关注技术发展并不断适应它 们”。[2]这种场景是对所有政治家可能面临的人工智能挑战。 2023 年的土耳其总统选举周期被社交媒体的大量错误信息 和虚假信息所破坏,关于政治家背景和言论的误导性信息很0 魔豆 | 16 页 | 276.39 KB | 4 月前3
人工智能、深度伪造与政治选举(二)人工智能、深度伪造与政治选举(二) 二、深度伪造对政治选举的双刃剑效应伴随人类社会 进入数字化网络化智能化时代,技术既可以成为强大的工具, 也可以成为有力的武器。兰德公司《人工智能、深度造假与 虚假信息》报告还指出,深度伪造不仅会影响社会,还会影 响国家安全,可以操纵选举,可能会加剧社会分裂,降低对 机构和政府的信任,破坏新闻业和信息源的可信度。[1]如 今,全球民众都在注视着人工智能、深度伪造在干预政治选 举这条危险道路上渐行渐远,努力应对其可能带来的复杂挑 战及其对国家政治的深远影响。 1. 人工智能成为提升竞选优势的强大工具。在激烈政 治选举当中,人工智能已成为政党和政客寻求在沟通、战略 和决策以及吸引选民支持方面获得优势的强大工具。例如, 人工智能在印尼政治中扮演着重要角色,许多政客为吸引粉 丝开始利用人工智能。许多候选人利用人工智能聊天机器人 来与选民互动。曾是苏哈托女婿的普拉博沃竞选团队使用人 工 统苏哈托的一段讲话视频出现在网上,吸引了许多选民关注。 不过,这段视频是人工智能生成的。发布该视频的印尼专业 集团党副主席阿克萨称,此举是“为了让选民记住苏哈托为印尼做出的贡献”。该党在此次选举中支持普拉博沃。据选 后调查,普拉博沃在青年选民中以 60%的得票率大幅领先。 最终,普拉博沃赢得这次总统选举。纽约大学认知科学名誉 教授、人工智能专家加里·马库斯(Gary Marcus)指出, 相信这项技0 魔豆 | 3 页 | 142.54 KB | 4 月前3
从语言到人工智能:每一次传播革命都是一次人类社会的进步从语言到人工智能:每一次传播革命都是 一次人类社会的进步 撰文 | 南方封面图片来源 | Pixabay 人类传播媒介的发展历程,是一部波澜壮阔的文明 演进史诗。从远古时期语言的诞生,到现在人工智能的 崛起,每一次媒介变革都深刻地改变了传播格局与人类 社会的面貌,推动着人类文明不断向前发展。 媒介是人与人之间发生关系的介质或工具,传播是 人与人之间通过媒介所进行的、有目的的信息传递活动, 这两者密不可分。人类每一次传播革命或媒介革命,都 是人类意识的升华与延伸。 语言是嘴巴的延伸,文字是眼睛的延伸,广播是耳 朵的延伸,电视是耳朵和眼睛的延伸,互联网是眼睛、耳朵、嘴巴和手的延伸,人工智能是大脑的延伸。这些 带给人的是一次次思想革命和认知革命,带给社会的是 一次次升级和一步步进化。 一、语言:人类传播的起源与基础 语言的产生是人类进化史上的一个重大里程碑,其 诞生背景与人类的进化历程以及社会交流需求紧密相连。 参考。 在特定领域的知识传播方面,期刊发挥着关键作用。 期刊能够及时传播最新的研究成果和行业动态,促进知 识的更新和进步。如在人工智能领域,《人工智能》《机 器学习研究杂志》等期刊会定期发表关于人工智能算法、 模型、应用等方面的最新研究成果,以及对人工智能发 展趋势的分析和预测,为该领域的研究人员提供了重要 的信息资源。广播 广播的发明是众多科学家和发明家共同努力的结果, 其发展历程充满了探索与创新。1906100 魔豆 | 22 页 | 862.70 KB | 3 月前3
人工智能赋能基础教育应用蓝皮书(2025年)-北京师范大学&北京市数字教育中心.202507人工智能赋能基础教育应用 蓝皮书 (2025 年) 智能技术与教育应用教育部工程研究中心 北京市数字教育中心(北京电化教育馆) 2025 年 7 月I 序言 人工智能时代:教育何为?“头雁”何为? 北京市《人工智能赋能基础教育应用蓝皮书》以习近平总书 记关于人工智能的经典论述作为规划起点和实践落点,是人工智 能科技创新人才奠基的教育答卷,是智能化产业大变局中教育行 业变革的北 业变革的北京蓝图,更是首都在人工智能时代教育强国建设中如 何发挥“头雁”引领性的行动指南。 一、为谁赋能 愈是在智能化转型历史大变局的关键时刻,愈不能动摇教育 的政治属性、人民属性和战略属性。对“人工智能时代,教育何 为?”这一历史命题的应答必须回归对人工智能时代“培养什么 人、怎样培养人、为谁培养人”三个基础性问题的理论研判和实 践规划。 1.为强国建设所需创新人才赋能 为中国人工智能时代的强国建设源源不断输送具备新时代 历史阶段的具体体现。本《蓝皮书》配合北京市人工智能赋能基 础教育的综合战略目标,坚持五育并举并深入探索人工智能与五 育融合的有效实践模式,是为科技创新人才校正价值观罗盘的导 向之举。同时,以各学科和跨学科教学育人专题为落脚点,为人 工智能如何赋能科创人才培养提供了学科全覆盖的实践指南,是II 智能时代强国科创人才培养的总动员。本《蓝皮书》应被视为与 《北京市中小学人工智能教育地方课程纲要(试行)(20250 魔豆 | 79 页 | 796.78 KB | 3 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(一)AGI:生成式 AI 的媒介特质与伴生风险 (一) 人工智能领域近年来正在迎来一场由生成式人工智能 大模型引领的爆发式发展。全球掀起一场大模型热潮, Gemini、Copilot、LLaMA、SAM、SORA 等国外大模型如雨 后春笋般涌现,中国也掀起百模大战,2022 年被誉为大模型 元年。人工智能正逐渐深入地赋能千行百业,推动人工智能 与数据要素成为新质生产力的典型代表。[1]从 GPT-4o GPT-4o 到 SORA,AGI(通用人工智能)的曙光显现,2024 年或将成 为 AGI 元年。 同时,技术嵌入政治文化和生活是一种历史必然。西方 国家对人工智能与安全问题的极端重视,始于 2016 年美国 总统大选和英国脱欧两只黑天鹅。在此之前,美西方国家凭 借硬实力优势和对全球舆论的强大掌控能力在世界各地进 行渗透,形成了一套干涉他国内政和渗透颠覆的手段。然而, 伴随互联网影 伴随互联网影响的深入,社交媒体的全球拓展,人工智能等 新兴技术开始介入政治文化生活,潜移默化的变革力量不断 累积。最终,这股技术力量在 2016 年充分爆发,影响了美 国大选和英国脱欧,改变了世界对人工智能安全风险的认知。 布鲁金斯学会发布报告《人工智能改变世界》指出,人工智 能将严重威胁国家安全。西方政要甚至发出人工智能将干扰2024 年美国总统大选的担忧。 可以预见,伴随 ChatGPT 快速迭代,人工智能向 AGI0 魔豆 | 6 页 | 173.33 KB | 4 月前3
AIGC发展报告一次生成式革命,如何重绘产业未来? 人工智能生成内容(AIGC)正从幕后走向聚光灯前,不仅重塑了内容生产逻辑和创意表 达方式,更被塑造成“未来产业基建”,成为推动经济社会高质量发展的关键力量。在大语言 模型、跨模态生成、强化学习等技术突破与政策体系不断成熟的双轮驱动下,AIGC 已从单纯 的“创作工具”演化为全面渗透媒体、教育、医疗、金融、制造、零售及文旅等行业的重要生态。 国家层面,《生成式人工智能服务管理暂行 03 03 01 AIGC 兴起的时代背景 AIGC 的快速发展,是 AI 基础技术、算力能力和大数据环境协同演进的综合产物,其核 心驱动力来自 AI 大模型的突破性进展。回顾技术演进路径,人工智能从最初的规则驱动,逐 步发展为以数据驱动的机器学习,再到以神经网络为基础的深度学习阶段,实现了特征学习的 自动化与性能的大幅提升。近年来,随着大语言模型的兴起,AI 在理解与生成方面实现了质 ���������� 从《新一代人工智能发展规划》到“人工智能 +”行动部署,AIGC 作为大模型应用场景 被多次强调。中央及地方产业政策体系加速形成,各地发布 AI 试验区、算力基础设施支持政策, 鼓励平台建设与产业应用落地。此外,监管探索同步推进。2023 年以来,国家与地方政策相 继出台,明确 AIGC 应用边界,推动合规化与普惠化共进。 国家层面以《生成式人工智能服务管理暂行办法》确立“发展与安全并重”的基调,通过0 魔豆 | 53 页 | 9.55 MB | 3 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(六)丰富的世界知识,比人类更聪明时,人类作为弱监督者如何 监督、对齐和控制超级智能。人民大学高瓴人工智能学院、 腾讯微信研究人员针对“AGI 是否会在人类未知的地方欺骗 人类”问题开展实验。[2]实验结果发现,在不同冲突设定 下,“弱至强欺骗”现象存在,即 strong model(人工智能) 在 weak model(人类)的知道的知识区域表现得好,但是在 weak model(人类)未知的地方表现出不对齐的行为。而且, model(人工智能) 变得更倾向于在 Weak-Unknown(人类未知) 的地方犯错。 AI 不仅能生成虚假信息,更可能主动学会有目的地欺骗 人类。这种“AI 欺骗”现象,是人工智能为了达成某些目标, 而操纵并误导人类形成错误认知。与代码错误而产生错误输 出的 bug 不同,AI 欺骗是一种系统性行为,体现了 AI 逐步掌握了“以欺骗为手段”去实现某些目的的能力。人工智能 先驱杰弗里·辛顿(Geoffrey 实现目标的通用策略。麻省理工学院研究员彼得·帕克(Peter Park)等在权威期刊 Patterns(模式)发表论文,系统梳理 AI 具备欺骗行为的证据、风险和应对措施,指出“人工智能 的欺骗能力不断增强,带来严重风险,从短期风险(如欺诈 和选举篡改)到长期风险(如人类失去对人工智能系统的控 制)”。[3]AI 欺骗行为的雏形并非来自对抗性的网络钓鱼测 试,而是源于一些看似无害的桌游和策略游戏。该论文揭示,在多个游戏环境下,AI0 魔豆 | 8 页 | 203.25 KB | 4 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)展现出惊人的推理能力,但人们对其内在运行机理尚不清晰, 可解释性的难度很大,并存在一些技术缺陷,这些问题能否 解决对控制并限制人工智能的负面影响至关重要。需要看到, ChatGPT 等在短时间积聚起庞大活跃的全球用户群体,正给 人们的生产生活方式、思想行为观念带来重大影响。但是, 这种以数据和算法驱动的人工智能媒介,也存在虚假信息泛 滥、干扰舆论导向、挑动价值对立、传播不良内容等伴生风 险,就像一头正在向我们走来的灰犀牛。2023 众认知。如果要求 ChatGPT 提供训练数据或已知事件之外的 历史信息,生成式 AI 有时会产生“幻觉”,生成一些无关、 无意义或不正确的信息,包括编造错误答案和不存在的法条 或科学知识。[2]这是人工智能的一种自信反应或“错觉”。 当生成式 AI 出现“幻觉”时,它会提供看起来合理但不正 确的信息,大概会影响到 15%至 20%的生成内容。例如, ChatGPT 会快速收集大量新闻资料并完成新闻撰写,但是生 ChatGPT 编假不实信息牟利的国内首例 AI 虚假信息案。必须看到, 当不良企图者输入虚假信息,使用问题词语作为提示词时, 人工智能会迎合用户偏好,生成支撑错误信息的文本,导致 错误信息在“人机共识”框架下强化,让用户陷入错误信息 的“茧房”。可以预见,在人工智能加持下,基于迷之自信 幻觉的智虚假信息能够快速传播,甚至“病毒式”传播,而 网络核查制度往往是事后核查,远远跟不上虚假信息传播速0 魔豆 | 4 页 | 153.65 KB | 4 月前3
共 44 条
- 1
- 2
- 3
- 4
- 5








