忻州小学查“户口式”收集信息引众怒:教育管理别踩这三大“红线”忻州小学查“户口式”收集信息引众怒:教 育管理别踩这三大“红线” (来源:纵览新闻) 近日,山西忻州长征小学(西校区)的一张“家校联系卡”, 把“家校沟通”这个本该温暖的话题推上了风口浪尖。表格里 “擅长技能”“社会资源”等与教学关联甚微的栏目已让家长犯嘀咕,“是否单亲”这类敏感隐私问题的出现,更是直接触碰 了公众的情绪红线。尽管校方迅速致歉止损,但这场舆情风 波留下的思考,值得所有教育从业者深思——家校沟通的边 波留下的思考,值得所有教育从业者深思——家校沟通的边 界在哪里?学校信息收集的“度”该如何把握? 以下几类“红线”需重点规避,这不仅是对学生和家长的 尊重,更是对教育本质的坚守。 红线一:隐私边界模糊,把“管理便利”凌驾于“个人权 利”之上 “我的家庭情况和孩子上学有什么关系?”这是许多家长 看到“是否单亲”一栏时的直观疑问。在法治观念日益普及的 今天,“隐私权”早已不是抽象的法律概念,而是每个公民的 到特殊保护。 学校收集信息的逻辑,本应是“为了学生发展”而非“为了 管理便利”。诸如学生的健康状况、紧急联系人信息等,是保 障校园安全和教学活动的“必要信息”;而家长的职业细节、 社会资源、家庭结构等内容,除非涉及学生特殊帮扶需求且 经家长主动同意,否则都属于“非必要信息”。 部分学校之所以陷入“查户口”的误区,本质上是把行政 思维带进了教育场景——觉得“多收集点信息总没错”,却忽0 魔豆 | 5 页 | 260.46 KB | 16 小时前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)发布调查结论,ChatGPT 以及用于收集用户数 据的技术违反欧盟《通用数据保护条例》 (GDPR)。早在 2023 年 3 月,Garante 就宣布禁止使用 ChatGPT,并限制 OpenAI 处理意大利用户信息。因为在 2023 年 3 月,ChatGPT 出现 用户对话数据和付款服务支付信息丢失情况。而且,OpenAI 没有就收集处理用户信息进行告知,缺乏大量收集和存储个 人信息的法律依据。OpenAI0 魔豆 | 7 页 | 208.35 KB | 4 月前3
正确看待与处理互联网上的民情与舆情的舆情分析方法,对收集到的信息进行深入分类与研判,精 准判断哪些属于正常的民意表达,哪些存在演变为舆情的可 能性。对于正常民情,可按照常规流程进行处理与回应;对 于可能转化为舆情的信息,则需启动应急预案,提前做好应 对准备。 (二)积极回应民情,解决群众问题 各地政府纷纷开设网络问政平台,这一举措为民众提供 了便捷的诉求表达渠道。相关部门应安排专业、责任心强的 工作人员,负责收集整理民众在平台上的留言。对于民众反300 魔豆 | 6 页 | 200.11 KB | 2 月前3
历数美国联邦政府的威权化动向在反恐和反间谍的旗号下,联邦政府大幅扩大了对公民的监 控权力。从“爱国者法案”到后续的监控体系建设,美国情报机 构和安全部门获得了几乎不受约束的权限,可以收集个人通话记 录、网络数据、社交媒体信息,甚至利用大数据和人工智能进行 预测性监控。多年前斯诺登揭露的“棱镜计划”显示,美国国家 安全局几乎全面收集民众的电话、邮件与网络记录,这种情况只 在增强,没有减弱。特朗普时期,美国政府以“防止中国渗透” 为由,扩大对华人学者与留学生的电子邮件、社交媒体监控,甚0 魔豆 | 7 页 | 273.49 KB | 1 月前3
国家医保局调查集采药质量风险舆情分析(2)致厂家通过压缩工序等方式 控制成本,进而导致集采药与原研药疗效不一致、疗效不稳 定等问题。 二是部分网友对医保局调查的积极评价,国家医保局高 度重视临床一线的反馈,联合多部门赴上海听取意见,收集 临床数据,这种积极回应社会监督的态度得到了舆论的认可。 舆论认为,医保局的调查不仅是对现有问题的回应,也是进 一步完善集采制度的重要举措。 三是部分网友对集采制度的理性讨论。尽管存在质疑,0 魔豆 | 4 页 | 184.16 KB | 9 月前3
马上评丨整治“开盒”乱象,平台要当好守门员特征,除了有一些专门提供“开盒”方法、教程与服务的灰 色生意,还伴随着个人信息泄漏、贩卖等灰色产业链。因此, 要治本,还需要深入源头。这次通知明确,要结合个人信息保护系列专项行动,深 入治理违法违规收集使用个人信息等问题,会同有关部门严 厉打击泄露、盗取、贩卖个人信息,以及利用个人信息开展 违法犯罪活动等行为。也就是说,要真正构建从平台到监管 部门的常态化联动共治机制,既要及时清理各类侵犯个人隐0 魔豆 | 3 页 | 116.26 KB | 5 月前3
开云集团数据泄露背后的奢侈品《数 据安全法》《网络安全法》强调合法、必要、最小化原则, 尤其对跨境传输和敏感信息保护设有严格规范。9 月 16 日国 家网信办公布的执法案例显示,企业因未做安全评估、未加 密存储、超范围收集个人信息等行为被处罚。今年 5 月,迪 奥(上海)因客户数据跨境处理违规亦遭到查处。这表明,—4— 在中国市场运营的奢侈品牌若忽视数据合规,风险不仅限于 可能失去高端客户信任,还可能面临我国的监管处罚。0 魔豆 | 4 页 | 206.11 KB | 2 月前3
微软“甩锅”背后的野心与国家安全问题从国家安全的角度来看,这种大规模的 IT 故障可能会被 不法分子或恶意组织利用,对国家的政治、经济、社会等方 面造成更严重的危害。首先,在政治领域,网络已成为各国 政府进行信息传播、政策发布和民意收集的重要渠道。一旦 网络安全出现漏洞,敌对势力可能会利用这些漏洞进行虚假 信息传播、恶意舆论引导,从而破坏国家的政治稳定和社会 秩序。其次,在经济方面,国家的金融系统、能源供应、交 通运输等关0 魔豆 | 4 页 | 208.24 KB | 1 年前3
第一批“AI”公务员上岗后,安全风险与舆论质疑不容忽视提供了可借鉴的经验。未来可预见的,这将进一步促进了 AI 技术在城市管理、公共服务、教育等领域的深度融合。 然而,随着 AI 数智员工的使用,数据安全和隐私保护问 题成为不可忽视的挑战。AI 系统的运作依赖大量的数据收集 与分析,尤其是个人数据和敏感信息的处理。在没有严格数 据保护机制的情况下,这些数据可能会遭到泄露或滥用,导 致用户隐私遭受侵害。此外,AI 模型的训练和决策过程中可 能会出现偏见,若数据来源不全或不准确,可能会影响决策0 魔豆 | 5 页 | 209.02 KB | 8 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)或科学知识。[2]这是人工智能的一种自信反应或“错觉”。 当生成式 AI 出现“幻觉”时,它会提供看起来合理但不正 确的信息,大概会影响到 15%至 20%的生成内容。例如, ChatGPT 会快速收集大量新闻资料并完成新闻撰写,但是生 成的新闻内容并不能完全反映实际情况,对于事实性错误也 能“一本正经胡说八道”。2023 年 2 月 8 日的《纽约时报》 报道,美国新闻可信度评估与研究机构0 魔豆 | 4 页 | 153.65 KB | 4 月前3
共 36 条
- 1
- 2
- 3
- 4








