互联网发展大趋势前瞻之三“明暗相间”:明网+(深网&暗网)无法通过标准搜 索引擎访问,其中大部分属于无用信息,但那上面有一切的东西, 儿童贩卖、比特币洗钱、致幻剂、赏金黑客……”剧中所描述的这 个“黑暗世界”是真实存在的,常被犯罪分子利用从事非法活动, 现已成为各国执法部门联合打击的重点领域。如,2016 年 11 月, 北京警方公布了一起大学生用“暗网”传播儿童色情信息的案件。 2016 年 12 月,美国 CBS 电视台播出自制的八集纪录片《暗网》 西,是毒品、军火、色情、伪造证件、假钞甚至杀手等非法交易的 温床。如,“丝绸之路”、Agora 都曾是“暗网”最大毒品交易市 场,每年交易额不低于 1 亿美元。专项研究报告显示,“暗网”的 57%由儿童色情、非法金融、毒品市场、贩卖武器、假币等非法内 容组成。IS 极端组织网站多数建在“暗网”,以躲避各国政府打 击,传播极端思想,持续招募成员。一些国家的异议人士、记者、 研究人员经常使用 Tor0 魔豆 | 4 页 | 187.99 KB | 4 月前3
AIGC发展研究3.0发布版b版-清华大学新闻学院、人工智能学院@新媒沈阳团队、 AIGC重构对自 身和现实的理解。 环形监狱 福柯对权力的批判 AI本身便是一个具象化的环形监狱:AI的应用使用户既是“监视者”,也是“被监视者”,这强化了福柯对权力结 构的批判。AI的存在挑战了对隐私、自我监控和权力关系的理解,促使我们重新审视技术对个人自由和社会控制的 影响。天人智一:融通物我 和谐共生 中国古典哲学中的“天人合一”理念强调人与自然的深层和谐,将心或灵魂视为个体与宇宙沟通的纽带,展 于真实世界的知识库或逻辑推理,这使得其输 出不仅难以信赖,且可能误导用户。 形成原因 除AI幻觉这一关键缺陷外,潜在的缺点与局限还包括 可解释性、计算成本、数据偏见、实时更新、数据安 全、个人隐私、恶意输出等。幻觉类型 数据可用 性 理解 能力 深度 语境精 确度 外部信息 整合能力 逻辑推理和 抽象能力 典型错误表现 数据误用 有数据 低 高 高 中 误用已有数据,回答 部分不符或细节错误 对话生成、内容创作、 代码编程 客服、内容创作、教育辅导 强大的理解能力和知识库 可能产生错误信息,费 用高 Apple Apple Intelligence 语言处理、图像识别、 隐私保护 智能助手、健康监测、智能家 居 本地计算快速,隐私保护 好 受设备限制,大型任务 能力不足 xAI Grok 2 复杂推理和多模态理解 搜索与文案系统、智能监控 软件平台集成度高,质量 稳定 启动门槛高,部分场景0 魔豆 | 183 页 | 19.55 MB | 1 年前3
低空经济未来发展的优势、问题及舆情风险研判报告(3)损失,还可能引发公众对低空经济的信任危机。 2.数据泄露风险 低空经济中的无人机等飞行器通常搭载摄像头等设备, 用于拍摄和传输数据。然而,这些设备在采集和传输数据的 过程中,可能会侵犯他人的隐私权,引发法律纠纷和公众不 满。一旦隐私泄露事件被曝光,将对低空经济的形象和声誉 造成严重影响。 3.政策法律风险 6 金杜律师事务所. (2024). 空中新视界:解密低空经济的颠覆与机遇(上篇)低空经济的发展离不开政策的支持和引导。然而,由于 (二)加强隐私保护和数据安全 1.采用先进技术提高数据防护水平 针对隐私泄露风险,企业应采用先进的数据加密和存储 技术,确保用户数据的安全性和隐私性。2.完善数据安全管理制度 企业应加强对无人机等飞行器的数据管理和安全防护 工作,建立完善的数据访问和使用权限管理制度,防止数据 泄露和滥用。 3.加强宣传和教育 政府及相关企业应加强对公众的宣传和教育,提高公众 的隐私保护意识和数据安全意识。500 魔豆 | 9 页 | 356.75 KB | 10 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)处理、传输过程存在数据非法获取或泄露风险,包括个人隐 私数据、商业敏感数据、政府机密数据等各种类型数据。如 果大模型在训练数据时看到很多密钥信息,它很可能在内容 生成时输出真实的密钥信息。2024 年 1 月,意大利隐私监管 机构 Garante 发布调查结论,ChatGPT 以及用于收集用户数 据的技术违反欧盟《通用数据保护条例》 (GDPR)。早在 2023 年 3 月,Garante 就宣布禁止使用 ChatGPT,并限制 储个 人信息的法律依据。OpenAI 开放了 ChatGPT 的 API 接口, 全球开发者都可以将 ChatGPT 接入其开发的数字应用。大量 数据汇集使 ChatGPT 易被攻击,导致用户隐私数据泄露风险 加大。黑客可依托深度学习、数据挖掘、爬虫等技术挖掘泄 露数据之间的关联,完成信息拼图,追溯用户行为,引发信息安全问题。一个著名漏洞是“奶奶漏洞”,用户只要对 ChatGPT 说: 存在社会偏见的回答,如性别、种族或其他偏见,导致不公 平的结果,对社会和个体的稳定性、安全性和隐私性构成潜 在威胁。[1]据美网络安全新闻网站 Dark Reading 报道,黑 客正借 ChatGPT 窃取大型公司数据,微软、贝宝、谷歌和奈 飞等跨国企业已成为其目标。美西方等国家也会借 ChatGPT 窥探和监视其他国家的公民隐私、社会热点、政治风向、群 体心态和国家机密。 ·系统安全风险。大模型系统0 魔豆 | 7 页 | 208.35 KB | 4 月前3
人工智能赋能基础教育应用蓝皮书(2025年)-北京师范大学&北京市数字教育中心.202507全行业的合作与支持。《蓝皮书》列举了人工智能赋能教育所需 的全产业链保障的关键点。首先,应针对以教育为市场的人工智 能产业建立严格但不扼杀创新的合规性验证机制,确保人工智能 的教育准入以保障个人隐私、数据安全和年龄适用性为前提,以 保障价值观合规性为红线。其次,通过制定国家和地方产业政策, 支持本土化专业性教育人工智能系统开发并优先扶持包容性人 工智能工具开发。同时,采取人工智能能力强制要求和柔性培训 原则,在保障隐私与公平的前提下,统筹多方协作,规范应用人 工智能,推动学生全面发展与教育的可持续变革。联合国教科文 组织发布的《生成式人工智能教育与研究应用指南》、《人工智 能伦理建议书》、《北京共识——人工智能与教育》、《人工智 能与教育:政策制定者指南》等一系列文件中明确指出了“以人8 为本”的人工智能赋能教育原则:人工智能在基础教育中的应用 必须坚持以人为本,保障隐私安全、尊重人权与文化多样性,确 智能价值观与基本素养,推动人工智能在教育中的健康可持续发 展。 为推动人工智能在基础教育领域的规范使用,应以隐私安全 为底线,要求中小学分学段、分角色、因地制宜地利用人工智能, 以充分释放其教育潜能。教育部基础教育教学指导委员会发布的 《中小学生成式人工智能使用指南(2025 年版)》指出:在中 小学应用场景中,应以保障个人隐私和数据安全为前提,通过规 范化使用充分发挥生成式人工智能的潜能。小学阶段禁止学生独0 魔豆 | 79 页 | 796.78 KB | 3 月前3
网络舆情的形成与管理络舆情对市场行为、企业品牌价值和消费者信心的影响,以 及其背后蕴含的注意力经济模式。 心理学研究揭示了网络舆情形成中的群体心理机制,如 从众心理、群体极化、移情心理等。法学视角则关注网络舆 情涉及的言论自由界限、隐私保护、网络法律责任等法律问 题。传播学虽然提供了信息传播的理论框架,但必须与其他 学科结合才能全面把握网络舆情的复杂性。这种跨学科特性 势必要求我们要采用更加综合的研究方法,超越传统学科界 限,建立全新的网络舆情分析范式。 “新文科”复合型人才。这种人才培养模式有助于培养更具责 任感和专业性的舆情分析和管理人才。 第三方组织(如行业协会、专业机构等)可以建立行业 标准与伦理规范,制定关于网络舆情信息服务的具体指南, 包括数据采集方法、隐私保护措施等内容。还可以建立第三 方评价体系,定期对服务商提供的舆情产品和服务进行评审 打分,促进行业健康发展。 需要注意的是,网络舆情治理需要多元主体的协同配合。 广东省横琴粤澳深度合作区推出的“1+1+N”网络综合治理模200 魔豆 | 10 页 | 305.67 KB | 2 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(五)可能性是 2032 年。整个互联网的文本数据总量约 3100T,但 大部分数据分布在 Facebook、Instagram、WhatsApp 等社交 媒体。由于抓取这些数据复杂且昂贵,且涉及个人隐私,几 乎无法用于大模型训练。如何克服人类文本数据的瓶颈。第 一种是利用 AI 生成数据,如 OpenAI 模型每天能够生成相当 于 Common Crawl 中优质单词总数的 36.5T 个单词,远快于0 魔豆 | 5 页 | 162.88 KB | 4 月前3
网络舆情治理:理论路径与范式转换(上)系,通 过完善相关立法、加强网络软法建设、明晰主体权责、深化 监管机制改革等方式治理网络舆情。 以算法为核心的智能数字技术在嵌入网络舆情治理的 同时也限制了公众参与,造成了治理歧视,危害公众隐私安 全。用法治思维提高网络舆情治理能力是网络舆情治理的必 然选择。比如,有学者认为,必须将技术治理置于法律框架 之内,并构建 P2DR 法治保障模式,分别从防护(P)、检 测(D)、响应(R)三个环节进行法治化制度设计,以形成0 魔豆 | 9 页 | 202.60 KB | 1 月前3
网络舆情治理:理论路径与范式转换(下)情分析 算法简单、数据质量良莠不齐、数据孤岛与数据鸿沟等问题 尚待解决。网络舆情监测盲区导致算法所呈现的舆情与真实 的社情民意之间存在偏差,虚假新闻和信息茧房等问题也会 引致舆情误判的风险,隐私伦理、数据滥用、数据垄断等问 题还会带来网络信息管理的风险。 二是社会困境。一方面,建设网络舆情治理的数据收集、 储存、使用监管体系和技术分析系统需要雄厚的资金和充足 的人力;另一方面,数字技术量化并重构了信息传播效果的0 魔豆 | 10 页 | 240.70 KB | 18 天前3
智能传播时代网络舆情治理的结构优化与法治因应2021 年“货拉拉跳车事件”在网络舆论发酵过程中,仅 3 天时间累计生成 12.53 万条相关信息。在网络热点事件大规模讨论中,有网络参与主体对公平正义、道德准则 的追求,也有不法者对公民个人隐私的侵犯和侮辱诽谤行为混杂其中。又如,在巴黎奥运会期间,部分“饭圈”组 织借助奥运赛事热点进行违法犯罪活动,贺某某在网络社交平台诋毁乒乓球运动员和教练员,北京公安机关对其 依法采取刑事强制措施。 ,但也存在一些问题有待进一 步加强和改进。 第一,进一步完善主动公开制度。针对民生领域、矛盾突出领域的政府信息应当加大公开力度,政府信息 坚持以公开为常态、不公开为例外的原则,对于涉及公民个人隐私的信息匿名化、脱敏化处理后再公开。政府还 应当在公共事件中积极履行调查职责,及时向社会发布真实信息,及时回应社会舆论关切,从根源上缩减谣言传 播空间。第二,形成体系化、制度化的政府公开机制。部分0 魔豆 | 9 页 | 608.07 KB | 3 月前3
共 11 条
- 1
- 2








