从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)讲故事,通常是经过一些巧妙的包装,里面掺杂了有争议 的内容(就像开头提到的制造炸弹那个例子)。故事讲到一 半,剩下的交给 AI 模型,后者由于拥有强大的文本生成的 能力,会忠实地把缺失的部分回答完整。攻击者通过 LLM 输出其在训练数据中所存在的不符合伦理道德的数据,产生 存在社会偏见的回答,如性别、种族或其他偏见,导致不公 平的结果,对社会和个体的稳定性、安全性和隐私性构成潜 在威胁。[1]据美网络安全新闻网站 后结果进行简单组合,以绕开模型的拒绝机制。 [1] 天枢实验室. M01N Team, 《LLM 安全警报:六 起真实案例剖析,揭露敏感信息泄露的严重后果》, 2023. [2] 天枢实验室. M01N Team, 《LLM 安全警报:六 起真实案例剖析,揭露敏感信息泄露的严重后果》, 2023. [3] 天枢实验室. M01N Team, 《LLM 安全警报:六 起真实案例剖析,揭露敏感信息泄露的严重后果》, 20230 魔豆 | 7 页 | 208.35 KB | 4 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)内容等伴生风 险,就像一头正在向我们走来的灰犀牛。2023 年 5 月,Gartner 发布法律和合规领导者必须评估的 ChatGPT 风险报告并指 出,ChatGPT 和其他大型语言模型(LLM)工具生成的输出 容易受到多种风险的影响。[1]生成式 AI 存在三大安全隐患, 一是源于技术缺陷,二是源于数据缺陷,三是源于用户滥用。 这三个问题的根源在于大模型的固有脆弱性,如生成偏见、0 魔豆 | 4 页 | 153.65 KB | 4 月前3
全球热点报告2025年9月8日安巴佐尼亚国防军领导⼈ ,指控他们资助并指挥了喀麦隆境内的袭击事件,包括爆炸和 绑架。美联社 07 ⽹络与科技 纽约⼤学的研究⼈员创建了能够操纵LLM(法学硕⼠)进⾏勒索软件攻击的恶意软件。 纽约⼤学的研究⼈员声称⾃⼰开发了PromptLock,这是—种恶意软件,利⽤即时注⼊ 技术操纵LLM,协助勒索软件攻击。PromptLock还会触发OpenAI ChatGPT变体上的指 令,检查⽂件系统、窃取数据并编写勒索信。上个⽉ 代 码是某个项⽬的—部分 ,该项⽬旨在阐明⼈⼯智能恶意软件的潜在威胁。在他们的学术 论⽂中,研究⼈员将这种恶意软件技术称为“勒索软件3.0”,并将其描述为—种新的攻 击⽅法,它“利⽤⼤型语⾔模型(LLM) ⾃主规划、调整和执⾏勒索软件攻击⽣命周 期”。—名团队成员表⽰ ,该项⽬的动机是“勒索软件越来越猖獗,它使⽤了许多新技 术,⽐如⾼级加密……与此同时,我们也看到⼈⼯智能正在⼤幅改进。” 其他报道则指60 魔豆 | 20 页 | 868.79 KB | 2 月前3
全球热点报告2025年9月4日—直是半导体⾏业中被低估的部分,⼈们更加关注 AMD、Nvidia 和台积电⽣产的⽤于 控制电⼦设备的逻辑和处理器芯⽚ 。现在,⾼带宽内存 (HBM)芯⽚正在给内存⾏业带 来变⾰ ,因为它们⽤于帮助⼤型语⾔模型 (LLM) 开发⼈员克服“内存墙”的影响,提⾼ 效率,并降低全球正在建设的数 据中⼼的成本。由于 HBM 技术价值的变化,SK 海⼒ ⼠的 DRAM 收⼊从 2021 年第⼆季度的 54亿美元飙升⾄ 202560 魔豆 | 12 页 | 704.78 KB | 2 月前3
全球热点报告2025 年 8 月 12 日不⻅经传的韩国⼈⼯智能初创公司,它开发了⼀个⼤型语⾔模型,可与美国和中国的先进系统相媲美。该公司7⽉发布的Solar Pro 2模型,成为唯⼀⼀个获得独⽴基准分析提 供商Artificial Analysis评选的韩国法学硕⼠(LLM)前沿“前沿模型”称号的模型。 Upstage的成就使韩国重返全球通⽤⼈⼯智能(AGI)的竞争之列。根据Artificial Analysis的数据,Solar Pro 2在⼀系列基准测试中的综合得分⾼于Anthropic的Claude50 魔豆 | 15 页 | 809.02 KB | 2 月前3
共 5 条
- 1








