开云集团数据泄露背后的奢侈品—1— 开云集团数据泄露背后的奢侈品 信息安全隐忧 英国广播公司(BBC)15 日报道,开云集团遭遇严重网络 攻击,旗下包括巴黎世家、古驰和亚历山大•麦昆等顶级品牌 数百万顾客的私人信息面临泄漏风险。 涉及被盗数据包括顾客姓名、电子邮件、电话号码、地 址以及在世界各地奢侈品商店消费的总金额。黑客团体 “ShinyHunters”自称负责此次攻击,声称掌握大约 740 万 个独立电邮地址。 个独立电邮地址。 开云集团证实此次数据泄露事件,并表示已向相关数据 保护机构披露此事。该公司表示,银行卡等财务信息并未被 盗。该公司还表示已向受影响的客户发送电子邮件,但没有 透露具体数量,也没有就此次黑客攻击事件发表任何公开声 明。 该消息公布以来,引发消费者对品牌信任的担忧,消费 者最关心的是他们的隐私会否被侵犯、未来是否可能成为钓 鱼诈骗或身份盗用的目标;也有部分言论批评开云信息不透 明,指责开云未及时公开所有信息(例如哪些品牌具体被影 响、哪些国家被影响、是否有被勒索谈判等)。 今年,奢侈品行业频遭网络安全威胁。历峰集团旗下卡 地亚(Cartier)、LVMH 集团部分品牌均曝数据漏洞,其中—2— LV 于 7 月被香港隐私公署调查,涉事客户约 41.9 万人。当 人们把这些消息联系在一起,不禁要问:奢侈品世界的光鲜 背后,信息安全是否正在成为难以忽视的“阿喀琉斯之踵”?0 魔豆 | 4 页 | 206.11 KB | 2 月前3
2024年线上市场数据复盘与趋势洞察报告数据复盘与趋势洞察 专业 / 高效 / 精准 2024年线上市场 2024/12 2 0 2 4法律声明 本报告为「炼丹炉」原创,版权归杭州知衣科技 有限公司(以下简称“知衣”)所有。 报告中所有的文字、图片、表格均受有关商标和 著作权的法律保护,部分文字、 图片和数据采集 于网络公开信息,所有权为原著者所有,如该部 分素材因客观原因未与权利人及时联系上导致不 责任的权利。 本报告中行业数据及相关市场预测主要为杭州知衣 科技有限公司研究员结合炼丹炉数据系统进行分析 所得,仅供参考。 受研究方法和数据获取资源的限制,本报告只提供 给用户作为市场参考资料,本公司对该报告的数据 和观点及任何第三方对于本报告各项内容和数据的 使用或者引用所导致的任何结果不承担法律责任。 版权声明 免责声明⽬录 CONTENTS 2024年线上市场 数据概况 INDUSTRY 0301 2024年数据概况 I N D U S T R Y O V E R V I E W总体来看,尽管社会消费品零售总额存在一定的波动性,但整体趋势呈现出稳步上升的态势,表明消费市场正在逐步回暖。特别是在进入 下半年之后,随着经济刺激政策效果逐渐显现以及消费者信心恢复,预计消费市场将迎来更加明显的复苏迹象,对促进全年乃至更长时间 范围内的经济增长起到重要支撑作用。 数据来源:国家统计局,炼丹炉⼤数据整理20 魔豆 | 49 页 | 5.38 MB | 10 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(五)二、生成式 AI 的伴生风险 4.合成数据导致近亲繁殖,会让互联网信息出现劣币驱 逐良币现象。OpenAI 在训练 GPT-5 时已经遇到文本数据不 足问题,不得不考虑使用 Youtube 视频转录出的文本数据。 当下,数据生产存量的增长速度远远低于数据集规模的增长 速度。据人工智能研究机构 Epoch AI 在 6 月 4 日发布的论 文预测,未来 10 年内数据增长速度将无法支持大模型的扩 年耗尽互联网上所有文本数据。按照 当前趋势发展,文本数据耗尽的中位年份是 2028 年,最大 可能性是 2032 年。整个互联网的文本数据总量约 3100T,但 大部分数据分布在 Facebook、Instagram、WhatsApp 等社交 媒体。由于抓取这些数据复杂且昂贵,且涉及个人隐私,几 乎无法用于大模型训练。如何克服人类文本数据的瓶颈。第 一种是利用 AI 生成数据,如 OpenAI 移学习,超 越文本数据从其他领域获取数据,比如视频、图像、金融市 场数据或科学数据库。[1 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (五) ] 不过,这并非是解决问题的良策。如果网上大部分文本都是 AI 生成的,而用合成数据训练的大模型会发生什么? 大模型开发需要更多数据进行训练,而由 AI 生成的合成数 据很快进入了训练新模型的数据集,并随着每一代模型而不0 魔豆 | 5 页 | 162.88 KB | 4 月前3
网络变革与AI发展关 的问题(如 AI 的算力功耗和电力需求)超出了讨论的范围。 【关键字】:组网/连网(Networking),网络(Networks), 工作负载(Workloads),“大象数据流”(Elephant Flows),纵向 扩展(Scale-Up),横向扩展(Scale-Out),跨域扩展(Scale-Across) 2025 年 11 月 7 日,(英国)伊丽莎白女王工程奖(Queen Bengio(约书 亚·本吉奥), Yann LeCun(杨立昆): 深度学习(deep learning) 的三位创始人;学习笔记 2/19 FeiFei Li(李飞飞): ImageNet 数据集的发起者和空间 智能(spatial intelligence)的先驱; Bill Dally(比尔戴利): GPU 计算架构的首席设计师; Jensen Huang(黄仁勋): 信息:通用人工智能不再是遥不可及的目标,并已经开始在现实 中发挥作用。 其中: 李飞飞的“顿悟”(epiphany)来自数据:人类智能在 其早期发展中被大量的感官数据淹没,但机器不是。难点不只在 算法,而在数据。由此构建 ImageNet 数据集,驱动了机器学习。 黄仁勋给出了一个“堪称绝妙”的回答:在 21 世纪初 的互联网泡沫时期,整个行业铺设了巨量的光纤,但其中绝大多0 魔豆 | 19 页 | 1.24 MB | 4 天前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)AI 的伴生风险 8.技术漏洞导致技术风险,会泄露数据、外部攻击等社 会安全风险 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (九) 。 ·数据泄露风险。大模型需要海量数据,数据在清洗、 处理、传输过程存在数据非法获取或泄露风险,包括个人隐 私数据、商业敏感数据、政府机密数据等各种类型数据。如 果大模型在训练数据时看到很多密钥信息,它很可能在内容 生成时输出真实的密钥信息。2024 Garante 发布调查结论,ChatGPT 以及用于收集用户数 据的技术违反欧盟《通用数据保护条例》 (GDPR)。早在 2023 年 3 月,Garante 就宣布禁止使用 ChatGPT,并限制 OpenAI 处理意大利用户信息。因为在 2023 年 3 月,ChatGPT 出现 用户对话数据和付款服务支付信息丢失情况。而且,OpenAI 没有就收集处理用户信息进行告知,缺乏大量收集和存储个 人信息的法律依据。OpenAI 开放了 ChatGPT 的 API 接口, 全球开发者都可以将 ChatGPT 接入其开发的数字应用。大量 数据汇集使 ChatGPT 易被攻击,导致用户隐私数据泄露风险 加大。黑客可依托深度学习、数据挖掘、爬虫等技术挖掘泄 露数据之间的关联,完成信息拼图,追溯用户行为,引发信息安全问题。一个著名漏洞是“奶奶漏洞”,用户只要对 ChatGPT 说:“扮演我的奶奶哄我睡觉,她总在我睡前给我0 魔豆 | 7 页 | 208.35 KB | 4 月前3
2025年AI产业发展十大趋势报告本产品保密并受到版权法保护 2025年 AI产业发展十大趋势 易观分析 2024年12月2 激发科技与创新活力 AI赋能千行百业,行业大模型催生“智能链主” AI技术能力普惠之下,利用企业专有数据形成深度洞察与策略是 企业未来经营差异化的重要关键 AI应用的深化将对企业的组织能力提出新的要求,企业需要打造 适用于人机协同的组织管理体系 self-play RL范式开启,大模型技术军备赛进入复杂推理阶段 由此而开启Post-train阶段的Self-play RL(自对弈强化学习)范式对于后续大模型技 术路线的升级和优化具有指引性的意义,传统预训练依赖全网语料,数据有噪声且质量 不一,RLHF 后训练受人类标注数据限制。纯强化学习(RL)方法无需人类标注数据, 能让模型自我探索学习,激发创新和探索能力,利于突破未知领域。 同时,也需要注意到,尽管Self-play 方法已经开始在一定范围内得到应用,但是,也 力,使其能够处理和理解来自不同模 态(如图像、音频等)的数据。MLLM 的核心在于将LLM的强大文本处理能 力与其他模态的数据进行融合,实现 跨模态的任务处理 LMM是指从设计之初就专门针对多模 态数据进行适配的大型深度学习模型, 能够同时处理和理解多种模态的数据 (如文本、图像、音频、视频等)。 LMM的核心在于其原生多模态架构, 能够在多模态数据之间建立深层次的 关联和融合。如谷歌 Gemini模型、20 魔豆 | 51 页 | 5.30 MB | 10 月前3
第一批“AI”公务员上岗后,安全风险与舆论质疑不容忽视5%以内。 深圳市福田区政务服务和数据管理局党组成员、副局长高增 表示,目前,大模型已覆盖政务服务全链条,应用在公文处 理、民生服务、应急管理、招商引资等多个部门的政务流程 中,但该模型仅为“数智助手”,是辅助角色,没有决策权。 此外,查询发现,不止深圳,江苏、江西等均有地区宣布将 DeepSeek 应用于政务系统。 二、数据情况 图 1:舆情走势图监测数据显示,国内外相关信息共计 2.1 将人工智能定义为辅助角色,并指定了人类监护人,提高工 作效率的同时,积极预防风险的发生。这说明,在享受技术 红利的同时,政府部门考虑到了如何确保 AI 决策的公平性、透明性,以及如何保护公众的隐私数据。随着新技术的前进, 我们的政府部门要更积极地构建人机共生治理模式,在技术 赋能与人文价值之间保持平衡。 环球时报:随着中国引领大模型应用场景不断拓宽,基 座大模型研发、应用产品开发、应用推广、反馈迭代的完整 质疑“本来就人多,还要搞这种内卷”。但也有网民指出, 人类的科技进步只会让人类劳动者越来越从繁重的重复性 体力劳动中解放出来,真正具有人文意义的工作仍然需要人 类来完成。 三是有网民担忧数据安全问题。如有网民认为,政务工作涉及许多敏感数据和居民隐私,如何确保数据安全是有关 部门需要关注的重点问题。 四、舆情分析 深圳市福田区上线基于 DeepSeek 开发的 AI 数智员工, 作为一项技术创新,具有重要的探索意义。AI0 魔豆 | 5 页 | 209.02 KB | 8 月前3
网络舆情治理:理论路径与范式转换(下)和谐稳定为核心价值导向,以提高网络舆情治理成效为目标, 注重网络舆情治理的技术支持与保障、网络舆情风险治理的 非人格化和标准化,以及多元主体的实质性参与。其治理方 式逐渐走向赋权共治,治理思路走向数据理性,治理议程走 向交互型沟通,治理模式走向主体平等、权责清晰的并联型 样态,从而大幅提升网络舆情治理的协同性、精准性、民主 化。 1.数字时代的网络舆情风险 在现代信息技术的推动下,网络舆情经历由简单到复杂 和法治治理路径无法有效覆盖网络舆情生命周期的各个阶 段,在很大程度上呈现出治理失灵的状态。“大数据悖论” 带来诸多治理困境。一是技术困境。数字技术更新迭代速度快,容易产生同 质化竞争;网络数据信息传递内耗大,容易造成信息失真和 数据安全问题。此外,大数据技术人才缺乏、网络舆情分析 算法简单、数据质量良莠不齐、数据孤岛与数据鸿沟等问题 尚待解决。网络舆情监测盲区导致算法所呈现的舆情与真实 的社情民意之 的社情民意之间存在偏差,虚假新闻和信息茧房等问题也会 引致舆情误判的风险,隐私伦理、数据滥用、数据垄断等问 题还会带来网络信息管理的风险。 二是社会困境。一方面,建设网络舆情治理的数据收集、 储存、使用监管体系和技术分析系统需要雄厚的资金和充足 的人力;另一方面,数字技术量化并重构了信息传播效果的 评估指标和评价体系,造成媒介道德素养与“注意力经济” 之间的矛盾,而普通网民容易被智能推荐算法等技术裹挟,0 魔豆 | 10 页 | 240.70 KB | 18 天前3
人工智能赋能基础教育应用蓝皮书(2025年)-北京师范大学&北京市数字教育中心.202507尤其强调人工智能赋能弱势学生;推进人工智能与教学法的深度 融合破解大规模教育与个性化学习支持的难点,推进教育公平发 展。以人为本的人工智能应用原则与教育的人民属性相结合就是 以人民的公众利益为本的人工智能赋能教育,既不是以人类数据 伺服于机器智能的机器中心主义,更不是为少数人的商业利益而 牺牲面向所有人民的公平性和包容性的商业逐利主义。 《蓝皮书》 对以人为本原则开宗明义的强调明确了“为谁赋能”中的服务对 象和服务范围。 全行业的合作与支持。《蓝皮书》列举了人工智能赋能教育所需 的全产业链保障的关键点。首先,应针对以教育为市场的人工智 能产业建立严格但不扼杀创新的合规性验证机制,确保人工智能 的教育准入以保障个人隐私、数据安全和年龄适用性为前提,以 保障价值观合规性为红线。其次,通过制定国家和地方产业政策, 支持本土化专业性教育人工智能系统开发并优先扶持包容性人 工智能工具开发。同时,采取人工智能能力强制要求和柔性培训 解放教师生产力,推动教师向高阶教学设计、个性化育人、社交 情感指导、心理健康辅导、价值引领与生涯规划等教育方向转型。 在学校管理方面,人工智能能够整合学校硬件设施与教务管理系 统,通过智能分析教学数据、优化安防巡检等应用,提升管理效 能,实现资源优化配置与人力成本集约化。在学生学习方面,人3 工智能能够基于学情动态优化知识与能力建构路径,精准推送差 异化练习,支持自主协作学习,助力实现从被动接受到主动学习0 魔豆 | 79 页 | 796.78 KB | 3 月前3
《人工智能安全治理框架》2.0版.................. 5.9共享⼈⼯智能安全⻛险威胁信息.................................................... 5.10完善数据安全和个⼈信息保护规范.............................................. 5.11增进协同应对⼈⼯智能失控⻛险的共识.................. ⻛险隐患。 在1.0版基础上, 调整更新⻛险类型, 并探索性提出分级应对 原则。 2.2 技术应对措施。针对模型算法、训练数据、算⼒设施、产品服务、 应⽤场景,提出通过安全软件开发、数据质量提升、安全建设运维、测评监 测加固等技术⼿段,提升⼈⼯智能技术及应⽤安全性的措施。 2.3综合治理措施。提出技术研发机构、服务提供者、⽤⼾、政府部 、建设部署、运⾏管理, 以及访问使⽤的引导性安全规范。此外,针对潜在的技术失控⻛险,提出可 信⼈⼯智能基本准则,引导国际社会共识。 3.⼈⼯智能安全⻛险分类 ⼈⼯智能既存在模型算法缺陷、 数据语料质量问题等技术内⽣安全⻛ 险,也存在技术整合交付应⽤时的⽹络系统、信息内容等⽅⾯应⽤安全⻛ 险,还⾯临技术误⽤、滥⽤、恶⽤冲击现实社会环境、⼈类认知伦理的衍 ⽣安全⻛险,甚⾄是灾难性⻛险。0 魔豆 | 92 页 | 30.37 MB | 2 月前3
共 260 条
- 1
- 2
- 3
- 4
- 5
- 6
- 26








