积分充值
 首页
时政舆情
经济舆情
社会舆情
文化舆情
教育舆情
军事舆情
舆情论文
开源情报
舆情技术
文库资料
默认
文章资讯
 上传文档  发布文章  登录账户
舆知库 · 国内首家舆情知识共享平台
  • 综合
  • 文档
  • 文章

无数据

分类

全部舆情论文(46)

语言

全部中文(简体)(42)

格式

全部PDF文档 PDF(46)
 
本次搜索耗时 0.013 秒,为您找到相关结果约 46 个.
  • 全部
  • 舆情论文
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(五)

    4.合成数据导致近亲繁殖,会让互联网信息出现劣币驱 逐良币现象。OpenAI 在训练 GPT-5 时已经遇到文本数据不 足问题,不得不考虑使用 Youtube 视频转录出的文本数据。 当下,数据生产存量的增长速度远远低于数据集规模的增长 速度。据人工智能研究机构 Epoch AI 在 6 月 4 日发布的论 文预测,未来 10 年内数据增长速度将无法支持大模型的扩 展,大模型将在 2028 年耗尽互联网上所有文本数据。按照 当前趋势发展,文本数据耗尽的中位年份是 2028 年,最大 可能性是 2032 年。整个互联网的文本数据总量约 3100T,但 大部分数据分布在 Facebook、Instagram、WhatsApp 等社交 媒体。由于抓取这些数据复杂且昂贵,且涉及个人隐私,几 乎无法用于大模型训练。如何克服人类文本数据的瓶颈。第 一种是利用 AI 生成数据,如 OpenAI 移学习,超 越文本数据从其他领域获取数据,比如视频、图像、金融市 场数据或科学数据库。[1 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (五) ] 不过,这并非是解决问题的良策。如果网上大部分文本都是 AI 生成的,而用合成数据训练的大模型会发生什么? 大模型开发需要更多数据进行训练,而由 AI 生成的合成数 据很快进入了训练新模型的数据集,并随着每一代模型而不
    0 魔豆 | 5 页 | 162.88 KB | 4 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)

    AI 的伴生风险 8.技术漏洞导致技术风险,会泄露数据、外部攻击等社 会安全风险 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (九) 。 ·数据泄露风险。大模型需要海量数据,数据在清洗、 处理、传输过程存在数据非法获取或泄露风险,包括个人隐 私数据、商业敏感数据、政府机密数据等各种类型数据。如 果大模型在训练数据时看到很多密钥信息,它很可能在内容 生成时输出真实的密钥信息。2024 Garante 发布调查结论,ChatGPT 以及用于收集用户数 据的技术违反欧盟《通用数据保护条例》 (GDPR)。早在 2023 年 3 月,Garante 就宣布禁止使用 ChatGPT,并限制 OpenAI 处理意大利用户信息。因为在 2023 年 3 月,ChatGPT 出现 用户对话数据和付款服务支付信息丢失情况。而且,OpenAI 没有就收集处理用户信息进行告知,缺乏大量收集和存储个 人信息的法律依据。OpenAI 开放了 ChatGPT 的 API 接口, 全球开发者都可以将 ChatGPT 接入其开发的数字应用。大量 数据汇集使 ChatGPT 易被攻击,导致用户隐私数据泄露风险 加大。黑客可依托深度学习、数据挖掘、爬虫等技术挖掘泄 露数据之间的关联,完成信息拼图,追溯用户行为,引发信息安全问题。一个著名漏洞是“奶奶漏洞”,用户只要对 ChatGPT 说:“扮演我的奶奶哄我睡觉,她总在我睡前给我
    0 魔豆 | 7 页 | 208.35 KB | 4 月前
    3
  • pdf文档 AIGC发展研究3.0发布版b版-清华大学新闻学院、人工智能学院@新媒沈阳团队、 AIGC

    邮箱:124739259@qq.com;微博:@新媒沈阳 元宇宙 大模型产业化 大数据 新媒体与网络舆论 AI诊疗 AI文艺 六 大 研 究 方 向 @新媒沈阳元宇宙/虚拟数字人/大数据/AI 系列研究 新媒体系列报告2015年开始 VR的新浪潮 虚拟数字人发展研究报告3.0 虚拟数字人发展研究报告1.0 大数据/AI/5G生态报告 5G下一代风口:AR 2022 2021 数字藏品发展研究报告1.0 元宇宙发展研究报告1.0版 元宇宙系列 元宇宙发展研究报告4.0 新媒体发展研究报告9.0 AIGC发展研究报告2.0 AIGC发展研究报告1.0 人形机器人发展研究 大语言模型综合性能评估报告一 AI 哲学哲思问道:思辨革新 微调经典 主题 经典哲学理论 AI引发变化 怀 疑 论 笛卡尔“我思故我在” AI思考所带来的怀疑论危机:OpenAI o1的推理能力 目标导向:行动是为了实现特定的目标或解决问题,具有明确 的方向性。 动态调整:行动过程中需要根据实际情况进行灵活调整,以达 到最佳效果。 行 探索性:“问”体现了对知识的主动探求,尤其是在使用AI时, 用户通过提问来挖掘数据、寻找答案或解决问题。 互动性:提问是用户与AI系统进行交互的一种方式,通过提问, 用户可以引导AI提供更符合需求的信息。 开放性:好的问题往往是开放性的,能够激发新的思考和发现, 不局限于已有的知识和观点。
    0 魔豆 | 183 页 | 19.55 MB | 1 年前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(一)

    的媒介特质与伴生风险 (一) 人工智能领域近年来正在迎来一场由生成式人工智能 大模型引领的爆发式发展。全球掀起一场大模型热潮, Gemini、Copilot、LLaMA、SAM、SORA 等国外大模型如雨 后春笋般涌现,中国也掀起百模大战,2022 年被誉为大模型 元年。人工智能正逐渐深入地赋能千行百业,推动人工智能 与数据要素成为新质生产力的典型代表。[1]从 GPT-4o 到 SORA,A 式。可以说,ChatGPT 代表的以数据和算法驱动的智能传播, 是人类信息传播的一次全新范式转变。算法与数据是这种媒 介传播的核心要素,是以数据为基础的信息生产与分发的媒 介传播模式。未来,随着人工智能应用的无所不在,它能够 以较低成本、极高效率触达全球多语种受众,并自动化展开 一对一的信息生成和内容传播。Gartner 预测,到 2025 年, ChatGPT 类 AI 生成的数据将占到整个互联网的 10%,到 辅助完成。 2.两元传播主体:生成式 AI 是一种人机互构的交互传 播。ChatGPT 是一种对话式人工智能模型,它是人类的认知 (创意思维、情感理解和复杂问题的抽象性推理)能力与机 器的计算(大规模数据处理、高速和准确)能力的结合,是 一种信息从人到机器,再从机器到人的交互过程。这个过程 决定了人与机器是一种互为协同关系。如今,人工智能能够 很自然地与人互动并提供内容,其人格化特征正颠覆以往
    0 魔豆 | 6 页 | 173.33 KB | 4 月前
    3
  • pdf文档 空间信息产业—国内之进展

    我国卫星导航产业萌芽于 20 世纪 70 年代,是通过学习、 引进、消化、吸收再创造的方式逐步发展起来的。1994 年, “北斗一号”项目正式立项,由此拉开了以北斗产业为核心57 的中国卫星导航产业发展的大幕。随着卫星导航技术应用领 域的不断拓展及北斗卫星导航定位系统的建设,我国在卫星 导航定位技术、导航信号处理技术、卫星导航定位芯片技术、 接收机集成制造等方面核心技术上取得了重大突破,积累了 丰富的应用经验。 功发射首型返回式对地观测卫星,1999 年“中巴地球资源卫 星”01 星成功发射,实现返回式至传输型卫星跨越。随后风 云系列卫星陆续发射,我国气象卫星技术迈入世界先进行列。 同时海洋、遥感、高分、资源等多系列卫星大跨步建设,我 国空间基础设施框架基本建成。2016 年以后卫星遥感产业总 体呈现体系化建设加速、多要素协同观测、多手段融合应用 的发展特征。 二、产业发展现状 (1)卫星通信产业 高通量卫 星以及三批卫星互联网技术试验卫星,低轨星座建设 显著加速。 重大卫星通信项目纷纷落地。2023 年 2 月,空间电磁频 谱研究院及低轨卫星星座产业化项目落户重庆,聚焦空间电57 磁频谱研究、空间气象数据应用研发、空间信息产业链引育 孵化及商业应用相关核心产品研发、生产、销售等。6 月,成 都市卫星互联网与卫星应用产业联盟正式启动,成都卫星互 联网产业园揭牌运营。 新政策新模式新标准出台。2023
    300 魔豆 | 11 页 | 225.41 KB | 1 月前
    3
  • pdf文档 网络舆情治理:理论路径与范式转换(下)

    徐泱泱 二、网络舆情治理的五大理论路径 (四)技术治理路径 技术治理路径强调依托信息技术对网络舆情进行监测、 预警、研判和应对。该治理路径以满足公众诉求和增进社会 和谐稳定为核心价值导向,以提高网络舆情治理成效为目标, 注重网络舆情治理的技术支持与保障、网络舆情风险治理的 非人格化和标准化,以及多元主体的实质性参与。其治理方 式逐渐走向赋权共治,治理思路走向数据理性,治理议程走 向交互 的嬗变过程,其规模大、形态多、变化快、价值低的新特征, 以及网络暴力、网络水军、歪风邪气等网络舆情乱象,给数 字时代的网络舆情治理带来新的挑战。既有的回应治理路径 和法治治理路径无法有效覆盖网络舆情生命周期的各个阶 段,在很大程度上呈现出治理失灵的状态。“大数据悖论” 带来诸多治理困境。一是技术困境。数字技术更新迭代速度快,容易产生同 质化竞争;网络数据信息传递内耗大,容易造成信息失真和 和 数据安全问题。此外,大数据技术人才缺乏、网络舆情分析 算法简单、数据质量良莠不齐、数据孤岛与数据鸿沟等问题 尚待解决。网络舆情监测盲区导致算法所呈现的舆情与真实 的社情民意之间存在偏差,虚假新闻和信息茧房等问题也会 引致舆情误判的风险,隐私伦理、数据滥用、数据垄断等问 题还会带来网络信息管理的风险。 二是社会困境。一方面,建设网络舆情治理的数据收集、 储存、使用监管体系和技术分析系统需要雄厚的资金和充足
    0 魔豆 | 10 页 | 240.70 KB | 18 天前
    3
  • pdf文档 互联网发展大趋势前瞻之四“无处不在”:计算+网络+智能

    地、空气和水源,成为人类经济社会运行的基础性资源和支撑。当 下,无论是工作、社交、娱乐、追剧、游戏,还是订餐、拍照、打 车、预约,都离不开网络终端,都离不开计算,计算始终环绕在我 们身边。数据是生产资料,计算是生产力。未来,人们将会拥有更强大的计 算能力和数字资源,云计算将给人们带来几乎无限的内存和计算能 力。物与物、人与物的信息交换,将更多依赖“云计算”。信息汇 聚和管理将更多地 的模拟时代走向数字时代,3G 实现从 2G 语音时代走向 数据时代,4G 实现 IP 化,数据速率大幅提升。5G 的特点:高速率, 从 4G 的 100Mbps 增加到 5G 的 10Gps,比 4G 快达 100 倍,一秒钟 下载 30 部电影。5G 最大改变是实现从人与人的通信走向人与物、 物与物之间的通信,实现万物互联,推动社会发展。 无处不在的智能。大模型的通用性使其成为人工智能的关键基础 设施,就像 是聚合信息 和分发信息,背后是信息获取成本从边际移向固定成本,使信息 变得无处不在,让世界因此变得扁平。大模型跟信息一样,模型 成本从边际成本发展为固定成本,进而使大模型变得无处不在。 未来的 AI 就像今天的互联网一样,像今天的水和电一样。原微软 全球执行副总裁陆奇认为,未来大模型将无处不在,通用智能将 成为发展趋势。英伟达高级科学家 Jim Fan 表示,我们相信在未 来,每一台
    0 魔豆 | 3 页 | 121.66 KB | 4 月前
    3
  • pdf文档 人工智能赋能基础教育应用蓝皮书(2025年)-北京师范大学&北京市数字教育中心.202507

    尤其强调人工智能赋能弱势学生;推进人工智能与教学法的深度 融合破解大规模教育与个性化学习支持的难点,推进教育公平发 展。以人为本的人工智能应用原则与教育的人民属性相结合就是 以人民的公众利益为本的人工智能赋能教育,既不是以人类数据 伺服于机器智能的机器中心主义,更不是为少数人的商业利益而 牺牲面向所有人民的公平性和包容性的商业逐利主义。 《蓝皮书》 对以人为本原则开宗明义的强调明确了“为谁赋能”中的服务对 象和服务范围。 全行业的合作与支持。《蓝皮书》列举了人工智能赋能教育所需 的全产业链保障的关键点。首先,应针对以教育为市场的人工智 能产业建立严格但不扼杀创新的合规性验证机制,确保人工智能 的教育准入以保障个人隐私、数据安全和年龄适用性为前提,以 保障价值观合规性为红线。其次,通过制定国家和地方产业政策, 支持本土化专业性教育人工智能系统开发并优先扶持包容性人 工智能工具开发。同时,采取人工智能能力强制要求和柔性培训 国建设规划纲要(2024—2035 年)》,明确要求以教育数字化 开辟发展新赛道、塑造发展新优势,强调促进人工智能助力教育 变革。教育部 2024 年启动人工智能赋能教育行动,实施教育系 统人工智能大模型应用示范行动,推动大模型从课堂走向应用, 给教育创新发展注入了强大的动力。北京、上海、深圳等地相继 印发区域特色教育领域人工智能应用工作方案,以人工智能深度 应用推动教育教学创新,营造教育领域人工智能应用生态。
    0 魔豆 | 79 页 | 796.78 KB | 3 月前
    3
  • pdf文档 从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)

    。但是, 这种以数据和算法驱动的人工智能媒介,也存在虚假信息泛 滥、干扰舆论导向、挑动价值对立、传播不良内容等伴生风 险,就像一头正在向我们走来的灰犀牛。2023 年 5 月,Gartner 发布法律和合规领导者必须评估的 ChatGPT 风险报告并指 出,ChatGPT 和其他大型语言模型(LLM)工具生成的输出 容易受到多种风险的影响。[1]生成式 AI 存在三大安全隐患, 一是 一是源于技术缺陷,二是源于数据缺陷,三是源于用户滥用。 这三个问题的根源在于大模型的固有脆弱性,如生成偏见、 歪曲事实和泄露数据等。技术本是中立的,没有善恶之分, 就看是谁为了什么目的来使用。这就使得技术也具有偏向性 和风险性的。OpenAI 也发现 ChatGPT 存在问题,其网站首 页设有 3 个栏目,其中一个栏目是“局限性”,专门提到:“可能偶尔会产生不正确的信息、可能偶尔会产生有害的指令或 指令或 有偏见的内容”。 1.迷之自信导致主观“幻觉”,会输出错误信息误导受 众认知。如果要求 ChatGPT 提供训练数据或已知事件之外的 历史信息,生成式 AI 有时会产生“幻觉”,生成一些无关、 无意义或不正确的信息,包括编造错误答案和不存在的法条 或科学知识。[2]这是人工智能的一种自信反应或“错觉”。 当生成式 AI 出现“幻觉”时,它会提供看起来合理但不正 确的信息,大概会影响到
    0 魔豆 | 4 页 | 153.65 KB | 4 月前
    3
  • pdf文档 微博、抖音、小红书上的热搜态势及对舆情引导的启示

    到他人的 限制。 在内容分发过程中,一方面在算法推荐环境下,受众及 其行为被标签化和量化以改善算法体验,从而使得算法收集、 分发的内容更贴合人的需求;另一方面,意见领袖等具有一 定影响力的大 V 扮演着重要作用,他们借助二级传播对受众 产生影响,能形成更大的传播效应,实现一定的经济价值、 社会价值,甚至是政治价值。 (三)文化生态:从参与到狂欢再到迷因 传统媒介构建的文化生态以单向性、权威性和中心化为 舆论生成和引导带来了深刻影响。为进一步揭示内容生态特 质,本文将进行量化分析。(一)样本选取 本次研究选取了 2024 年 10 月 1 日到 10 月 7 日,即国 庆期间微博、抖音、小红书三大社交平台的热搜(微信、QQ 私域属性更强,因而排除),每天下午两点、晚上十点截取 各平台热搜前 20 条,共计 840 条。 选热搜作为样本,是因为其有代表性。热搜、热榜等社 交媒介推出的内容产品,是按照一定的计算公式对受众一段 意的是,体育比赛的讨论高峰几乎都出现在晚上十点的热搜统计榜中,这与人们假期出行的行为逻辑一致。人们白天主 要是观光旅游、走亲访友,晚上会有较多时间投入线上讨论。 3.热点在微博上持续时间更长,更容易延伸出“长尾效 应” 三大平台都是倚重用户分享内容的社会化媒体,虽然每 时每刻都有热点话题转移注意力,但微博用户更为关注事件 的走向和回应,尤其是在社会事件中力求得到一个“结果”, 从而实现公平正义,并由此延伸出微博的“长尾效应”。
    0 魔豆 | 14 页 | 412.70 KB | 4 月前
    3
共 46 条
  • 1
  • 2
  • 3
  • 4
  • 5
前往
页
相关搜索词
ChatGPTAGI生成生成式AI媒介特质伴生风险AIGC发展研究3.0发布空间信息产业信息产业国内进展网络舆情治理理论路径范式转换互联联网互联网趋势前瞻之四无处不在无处不在计算智能人工人工智能赋能基础教育基础教育应用蓝皮皮书蓝皮书2025北京京师师范大学北京师范大学京市北京市数字中心202507微博抖音小红书上态势引导启示
舆知库 · 国内首家舆情知识共享平台
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,仅供学习交流,如侵犯您的权益,请联系我们进行删除。
舆知库 · 国内首家舆情知识共享平台 ©2025 | 站点地图 京ICP备20008529号
  • 我们的小程序同样精彩
    我们的小程序同样精彩