100条定律 网络舆情的原始微博法则的事情真相信 息则索然无味。这些错误信息在微博上更多表现为传言谣言。 沃顿商学院营销学教授乔纳·伯格提出,比起纠正性、解释 性或调整性的事实报道,以惊惧、愤怒或惧怕为情感色彩的 报道总能得到更广泛传播。在自相矛盾的证据面前,人们往 往首先罔顾事实,诉诸情绪,中立客观报道很难引起共鸣。 传言谣言几乎与人类历史同龄,随着互联网兴起和普及, 更加变得无处不在。2007 年 4 月 16 日,弗吉尼亚理工大学 都在一个 完整链中被转发 5 次,那么就是两个流言级联,每个级联的 大小是 5。研究人员使用这个框架来分析 Twitter 上的信息传 播,分析了约 126000 个流言级联。 研究者依据 6 家事实核查网站(专门核查消息真假的网 站)的数据,对于每一个流言级联都从四个维度比较分析真 实和不实新闻的传播力。 一是深度,即转发的“层级”,也就是在一个不间断链 中转发的数量。如 A 转发给了 盛顿邮报》《赫芬顿邮报》等主流媒体的 20 大选举新闻,转 发率却只有 740 万。 社交媒体一次又一次的爆料、辟谣、再爆料、再辟谣的 循环模式,使受众厌烦媒体对所谓事实的郑重报道,看到信 息第一时间不是思考信息是否是事实,而是怀疑整个事实的 真实性。人们对假新闻假消息早已习以为常,见怪不怪了, 即使出现大量未经证实的假新闻、假消息,很少有人会持续 关注后期对假新闻的纠错报道。真相在社交媒体时代被严重0 魔豆 | 9 页 | 474.62 KB | 4 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)和其他大型语言模型(LLM)工具生成的输出 容易受到多种风险的影响。[1]生成式 AI 存在三大安全隐患, 一是源于技术缺陷,二是源于数据缺陷,三是源于用户滥用。 这三个问题的根源在于大模型的固有脆弱性,如生成偏见、 歪曲事实和泄露数据等。技术本是中立的,没有善恶之分, 就看是谁为了什么目的来使用。这就使得技术也具有偏向性 和风险性的。OpenAI 也发现 ChatGPT 存在问题,其网站首 页设有 3 个栏目,其 出现“幻觉”时,它会提供看起来合理但不正 确的信息,大概会影响到 15%至 20%的生成内容。例如, ChatGPT 会快速收集大量新闻资料并完成新闻撰写,但是生 成的新闻内容并不能完全反映实际情况,对于事实性错误也 能“一本正经胡说八道”。2023 年 2 月 8 日的《纽约时报》 报道,美国新闻可信度评估与研究机构 NewsGuard 在 1 月向 ChatGPT 发出 100 个虚假叙述查询,在 之自信 幻觉的智虚假信息能够快速传播,甚至“病毒式”传播,而 网络核查制度往往是事后核查,远远跟不上虚假信息传播速 度。[4]总体而言,生成式 AI 还是不完美的,存在编造事实、 常识错误、引用谬误、知识盲区等事实错误,存在因果无关、 自相矛盾等逻辑错误,存在空间、物理、时间、年龄、隐喻、心理、情绪等推理错误,存在公式错误、数据错误等编程错 误,存在拼写语法等文本错误,存在阿谀奉承、态度模仿等0 魔豆 | 4 页 | 153.65 KB | 4 月前3
100条定律 逆火效应原本)真实的信息更加没有市场。当在人被动的接受他人信 息轰炸时,会有一种保护自己的既有观点不受外来信息的侵 害的本能。慢慢的,逆火效应就会让你对自己的怀疑越来越 少,最终把自己的看法当做是理所当然的事实。 2006 年,密西根大学的布伦丹•奈恩和乔治亚州立大学 的杰森•雷夫勒进行了一项实验。他们伪造了几则政治新闻, 请来一批实验对象,先请他们阅读伪造的新闻,再阅读真实 消息。例如,第一则新闻是美军在伊拉克发现大规模杀伤性 说,这样的故事 就像剧本一样。我们可以决定安排剧本的情节按照自己的喜 好发展。人们接受信息不是看其真实性,而是看其合不合自 己的口味。这也解释了为什么一些奇怪、荒诞的说法会拒绝 科学、理性和事实,一些人受骗后非要打钱给骗子,警察和 银行怎么解释都不信,怎么拦都拦不住。 逆火效应在互联网上更是表现明显。网上不实信息泛滥, 政府、精英和主流媒体的更正信息就像一把把逆火的枪,因 为与很多 能 力,从而影响人们对新信息的有效消化。这与人的自我防御的心理机制有关,即人们有动力去维护自我的完整性。这也 就是为什么有些老年人总是坚持购买假冒伪劣的保健品,不 管子女怎样说也无济于事。你摆事实讲道理以更正某人的错 误观念,反而使他的错误观念更根深蒂固;你接受一个观点 后,会本能地拒斥与之相反的信息,从而捍卫自己的认知权 威不受挑战。从记忆生成角度来看,大脑神经元在一次次接 受刺激0 魔豆 | 5 页 | 183.56 KB | 4 月前3
正确看待与处理互联网上的民情与舆情未能及时 得到纠正与引导时,极易引发民众的恐慌和焦虑情绪。部分 别有用心之人可能会利用这些问题,断章取义、歪曲事实, 煽动民众情绪,制造混乱,从而导致舆情发酵失控,对社会 稳定构成威胁。 以食品安全领域为例,一些谣言声称某知名品牌食品含 有严重危害健康的物质,尽管毫无事实依据,但在网络上迅 速传播,引发民众对该品牌乃至整个食品行业的信任危机, 导致相关企业销售业绩大幅下滑,正常的生产生活秩序受到 从源头上减少舆情发生的可能性。 (三)主动应对舆情,引导舆论走向 一旦发现舆情苗头,政府要秉持主动积极的态度,第一 时间发声。通过官方网站、社交媒体账号、新闻发布会等多 种渠道,公开透明地发布准确信息,澄清事实真相,避免谣 言进一步扩散。在信息发布过程中,要注重语言表达的准确 性、通俗易懂性,以民众易于接受的方式传递信息。同时, 邀请相关领域的专家学者、权威人士参与舆情讨论,通过他 们的专业解读,引导民众理性看待问题。例如,在面对突发300 魔豆 | 6 页 | 200.11 KB | 2 月前3
新时期下互联网“以舆扰法”现象研究报告会公共事务的决策与走向,这一趋势显 著促进了社会舆论的多元化与活跃性。 信息鸿沟的加剧:在公众与政法系统之间,长期存在着信息不对称的鸿沟。 普通民众往往难以全面、准确地获取案件背后的法律逻辑与事实真相,这在一定 程度上为误导性信息的传播提供了温床,加剧了舆论场的复杂性。 媒体生态的逐利倾向:在媒体竞争日益激烈的背景下,部分媒体机构为追求 更高的点击率与关注度,不惜采取夸大其词、片面报道的手法,以吸引公众眼球, 行为的处罚力度,确保平台 依法依规运营。 建立快速响应机制:针对网络舆情突发事件,应建立快速响应机制,确保相 关部门能够迅速介入、及时发声,有效引导舆论走向。通过官方渠道发布权威信 息,澄清事实真相,消除公众疑虑,维护社会稳定。 推动国际合作:在全球化背景下,网络舆论的跨国传播已成为常态。因此, 我们需要加强与国际社会的合作与交流,共同打击跨国网络犯罪活动,分享网络 舆情治理经验和技术手段,形成合力应对网络舆论挑战。0 魔豆 | 5 页 | 205.25 KB | 5 月前3
从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(六)技术不断向生产、生活诸多领域渗透,欺骗带 来的潜在风险不容忽视。对于生成式 AI 而言,欺骗行为的 表现更加广泛和隐蔽。AI 的知识范畴覆盖方方面面,也逐渐掌握人类思维模式和社会规则。因此,谎言、阿谀奉承、歪 曲事实等欺骗伎俩,都被 AI 模型习得。在狼人杀、AmongUs 等社交推理游戏中,AI 系统无论是当杀手,还是当村民,都 能熟练编造理由试图佐证自身清白,还会使用冒名顶替、移 花接木、虚构不在场证明等方式撒谎。当然,上述行为的动 念,无法正确认知事物本质。比如由于 AI 系统往往会倾向 于迎合用户的观点,不同群体的用户容易被相互矛盾的观点 所裹挟,导致社会分裂加剧。具有欺骗性质的 AI 系统可能 会告诉用户想听的话而非事实真相,使人们渐渐失去独立思 考和判断的能力。最为可怕的是,人类最终有可能失去对 AI 系统的控制。有研究发现,即使是现有的 AI 系统,有时也会展现出自主追求目标的倾向,而且这些目标未必符合人0 魔豆 | 8 页 | 203.25 KB | 4 月前3
次生舆情的产生与应对的裂变过程被加速,次生舆情纷 至沓来。 那么,应该如何应对次生舆情?首先,要回应公众关切,对于涉及群众切身 利益的事件,特别是涉及老百姓生命、财产及安全的事件,政府部门要尽量披露、 不要掩盖事实。其次,营造良好的网络环境,倡导网民运用正确的网络话语权维 护公众利益。提高网民媒介素养,实现网络空间自我净化,营造良好的自媒体舆 情环境。再次,压实网站平台主体责任,整治流量至上和“饭圈”乱象,努力营造0 魔豆 | 3 页 | 154.38 KB | 11 天前3
网络舆情的形成与管理心理、质疑探究心理、自我实现心理、竞争心理和交流心理等多种心理机制影响着“舆论场”的风向与规模。例如,群体 极化现象使得群体成员在讨论中倾向于更加极端的立场;从 众心理则使个体倾向于认同多数人的观点,即使这些观点可 能与事实有出入。 表:网络舆情发展三阶段的特征与机制 理解网络舆情的起源与形成机制,对于有效管理网络舆 情至关重要。只有深入把握其背后的社会心理根源和发展规 律,才能设计出有针对性的管理策略,而不是简单地采取堵 网络舆 情信息进行深度挖掘与分析,以快速汇总成舆情信息,从而 以替代人工阅读和分析网络舆情信息的繁复工作。 舆论引导则要求政府及时、准确地向公众传递信息,防 止谣言传播和舆论失控。这包括完善事实核查机制,推动权 威信息发布,增强信息透明度,减少公众猜疑。例如,在公 共卫生事件中,政府及时发布准确信息可以有效防止不实信 息的传播,避免公众焦虑和社会恐慌。 社会面管控强调“面”的把控,若只是个别观点并不可怕,200 魔豆 | 10 页 | 305.67 KB | 2 月前3
人工智能、深度伪造与政治选举(三)的支持率略有领先,领先埃尔多安超过 3%,但都没有获得超 50%的选票。[5]5 月 28 日,土耳其第二轮总统选举投票结束, 埃尔多安以 52.16%的选票获胜,克勒奇达尔奥卢以 47.84% 的选票惜败。土耳其独立事实核查组织 Teyit 通讯主管 Seme rcioğlu 指出,虚假信息作为一种现象在过往选举中不时出现, 但在土耳其的这次选举中变得更加明显。第一轮选举前:民 调显示克勒奇达尔奥卢将在第一轮 [18]Teyit 估计可能集会参加人数为 690,000。埃尔多安竞选团队将竞争对手的真实竞选视频与库尔德工人党创始人之 一穆拉特·卡拉伊兰的图像拼接在一起,似乎暗示克勒奇达 尔奥卢得到恐怖组织支持。土耳其事实核查机构 Teyit 和德 国媒体调查发现,集会视频内容来自两个完全独立的视频, 土耳其反对派没有得到库尔德工人党的支持。视频的一部分 源自 2023 年 5 月 1 日发布的克勒奇达尔奥卢真实竞选视频。 勒奇达尔奥卢的真实竞选视频画面与卡拉伊兰的视频画面 进行了结合,将其编辑成真假难辨的完整视频。[19]埃尔多 安选举集会发布的视频,在土耳其国内引发反对派是否与库 尔德工人党有勾连的争论。歪曲事实和伪造图像的指控满天飞,土耳其民众不知道是否还可以相信自己的眼睛。克勒奇 达尔奥卢的盟友、人民共和党(CHP)副主席 Engin Koc 在 Halk TV 脱口秀节目中指责埃尔多安的正义与发展党准备了0 魔豆 | 16 页 | 276.39 KB | 4 月前3
100条定律 网络舆情前200效应其明显,一个事件发生后,最早出现的观点和意见往往具有 很强导向性,会给后来的讨论定下基调和方向。人们常常倾 向于相信这些“先声”,容易认同它的价值判断,附和它的 意见主张,形成一种强大的舆论声势,至于议论的事实是否 清楚、判断是否正确,反而变得不再重要。 斯坦福大学和康奈尔大学的研究人员创建了一个机器 学习算法,预测一个人写的下一篇评论是否会被标记为喷子。 算法规则包括用户最后一篇帖子的时间戳、最后一篇帖子是0 魔豆 | 4 页 | 131.68 KB | 4 月前3
共 20 条
- 1
- 2








