AIGC在中国社交媒体的渗透规模
2025年是AIGC(AI生成内容)在中国舆论场真正"破圈"的一年。根据乐思舆情监测研究院对主要平台的抽样分析,在具有病毒传播特征的帖子(转发量超过5000次)中,约18%含有不同程度的AI辅助生成成分——包括AI写作、AI配图、AI语音合成或AI视频生成。
这一数字在2023年仅为4%,两年间增长了450%。更值得警惕的是,随着Sora类视频生成工具和国内文生视频大模型的快速普及,2026年预计这一比例将突破25%。
📊 AIGC在病毒内容中的渗透率增长趋势(2022—2026年预测)
AIGC内容的四种形态
信息茧房:算法与AIGC的双重强化
信息茧房并非AIGC时代的新现象,但AIGC正在以前所未有的速度加剧它。传统算法推荐系统基于用户历史行为构建兴趣图谱,而AIGC的介入产生了一个危险的正反馈循环:算法识别用户偏好 → AIGC针对性生成内容 → 内容精准命中偏好 → 算法进一步强化推送 → 用户圈层更加封闭。
茧房效应的三个维度
- 认知茧房:用户只接触到符合自身世界观的"事实",对相反观点的信任度持续降低。当舆情危机发生时,不同圈层的受众接收的是完全不同的"真相"。
- 情感茧房:AIGC内容经过算法优化,更擅长激发强烈情感反应(愤怒、恐惧、爱国热情),负面情感内容在茧房内获得更高的传播系数。
- 行动茧房:舆情事件中,封闭圈层的用户更倾向于采取极端行动(网暴、集体投诉、抵制),而缺乏来自不同视角的信息缓冲。
深度伪造:舆情战场的新式武器
2025年,中国境内有据可查的涉及深度伪造的舆情事件达到47起,同比增长183%。这些事件中,约60%以企业高管为目标,30%针对政府官员,10%针对公众人物。深度伪造内容的典型破坏场景包括:
- 伪造CEO发表危机声明或不当言论的视频
- 克隆企业客服声音进行电话诈骗,受害者投诉触发舆情
- 制造虚假的产品缺陷或安全事故短视频
- 伪造政府通知或监管处罚文件进行商业打击
某消费品牌深度伪造危机:一段约40秒的"质检负责人承认产品含违禁成分"深度伪造视频在抖音迅速传播,4小时内播放量突破800万次。品牌舆情系统在视频发布47分钟后发出预警,但视频已被大量截图二次传播。品牌在90分钟内发布官方声明,但因视觉上难以与真实视频区分,声明效果有限。
关键教训:该品牌此后建立了高管视频"数字水印"体系,所有官方视频均内嵌不可见的声纹认证码,消费者可通过官方小程序一键验真。建立预防机制的代价远低于事后公关。
深度伪造检测的当前瓶颈
目前主流深度伪造检测系统的准确率约为79%(针对清晰视频),但面对以下情况时准确率大幅下降:经过压缩(多次截图/转发)的视频,准确率降至约61%;仅有音频而无视频的情况,准确率约55%;针对中国人面部特征优化的生成模型,现有以西方面部为主要训练集的检测模型表现更差。
AI驱动的水军:新一代协调操纵行为
传统水军依赖人工操控,每个账号每日有效互动量有限。AI赋能后,单个运营者可管理的账号矩阵扩大至传统模式的数十倍,且每个账号的内容风格、互动节奏、语言习惯均可由大模型差异化生成,极大地提升了过检能力。
根据乐思研究院对2025年主要舆情事件的分析,在形成"集体声讨"效应的负面事件中,有约34%存在AI驱动的协调放大行为。AI水军的新特征包括:
- 语义多样性:同一观点以数百种不同措辞表达,规避关键词过滤
- 人格一致性:每个账号有连贯的发帖历史、地域标签和兴趣标签
- 时序精确:在舆情关键节点(如企业发声后30分钟内)集中爆发,最大化干扰效果
- 跨平台协同:从小平台制造素材,再引爆到主流平台,绕过各平台的独立检测
平台治理与法规演进
面对AIGC带来的舆情生态失序风险,监管机构和平台已出台一系列治理措施。以下是2025—2026年的主要进展:
| 法规/措施 | 要点 | 对企业的影响 |
|---|---|---|
| 《互联网信息服务深度合成管理规定》(修订版) | AI生成内容必须显著标注;不得用于捏造虚假信息 | 企业发布AI内容须加水印;高管深度伪造可依法维权 |
| 抖音AIGC标签系统 | 系统自动检测并标注疑似AI生成视频;创作者需主动申报 | 品牌视频若被误标,需提供原始素材申诉;需监控错误标注 |
| 微信"AI内容"声明机制 | 公众号文章使用AI辅助须在文末申报 | 企业公众号内容规范需更新;影响SEO信任权重 |
| 微博深度合成内容标注 | 一键举报AI伪造内容;平台24小时内核查 | 品牌可主动举报针对自身的深度伪造内容,响应较快 |
| 《生成式人工智能服务管理暂行办法》 | AI服务提供商须对有害内容承担连带责任 | 使用第三方AI工具生成内容时,需关注服务商合规状况 |
AIGC对舆情监测系统的挑战
传统舆情监测系统以关键词匹配、情感词典和行为规则为主要检测手段。面对AIGC内容,这些方法正在暴露系统性缺陷:
- 语义漂移:AI生成内容可以自动规避关键词黑名单,用语义等价但词汇不同的表达绕过过滤
- 情感混淆:AI生成的"中性"措辞实际传递负面信息,导致情感分析出现系统性低估
- 溯源困难:多次转发的AI内容已与原始来源脱钩,难以追踪事件起点
- 账号真实性:AI水军账号的行为模式日益接近真实用户,传统账号可信度评分失效
下一代舆情监测系统的核心能力
面对AIGC挑战,2026年的企业级舆情系统需要具备以下新能力:
- 集成AI内容检测层,实时标记疑似AIGC内容并单独统计
- 基于大模型的语义理解,超越关键词匹配
- 跨平台内容溯源图谱,识别内容传播起点和放大节点
- 协调行为检测,识别水军矩阵的网络拓扑结构
- 深度伪造预警,当与品牌相关的疑似伪造视频出现时立即触发告警
企业与政府机构应对框架
面对AIGC重塑的舆情生态,单纯的"危机公关"思维已经不够。我们建议构建覆盖事前预防、事中响应、事后修复的全周期AIGC舆情治理体系:
事前预防(构建免疫力)
- 为高管建立"数字身份档案":包括声纹、面部特征的基线样本,用于快速比对
- 在所有官方视频/音频中内嵌不可见数字水印,便于真实性验证
- 制定内部AIGC使用规范,明确哪些场景可用AI,哪些场景须人工
- 与主要平台建立"快速验真通道",申请入驻官方认证体系
- 部署7×24小时舆情监测,将AIGC检测列为必选模块
事中响应(快速止损)
- 深度伪造内容发现后30分钟内,由真实高管录制简短澄清视频(正面出镜,环境清晰)
- 同步向多平台提交举报(附数字水印验证或公证文件)
- 通过官方渠道置顶声明,关键词与伪造内容高度重叠,确保搜索场景覆盖
- 主动联系相关媒体提供独家核实资料,引导报道方向
事后修复(重建信任)
- 发布完整事件时间线和平台处置进展
- 向公众科普如何验证真假内容(可做成互动小工具)
- 将此次事件纳入危机预案更新,完善应对SOP