当 AI 也 “确信” 不存在的道歉:一场由虚假信息引发的认知迷局

日期:2025-07-09 22:37:17 / 人气:9


#DeepSeek 向王一博道歉 #的热搜曾占据榜单前三,可诡异的是,没人能找到 DeepSeek 发布的相关声明。更令人咋舌的是,询问多个 AI 大模型后,多数都 “确认” 了这一根本不存在的道歉,一场由 AI 参与的信息迷局就此展开。
谣言的诞生与扩散:漏洞百出却被广泛接受
事情的起因看似简单,先是有网友传出 DeepSeek 在 AI 生成式回答中关联了新闻中的当事人,随后一份据称来自 DeepSeek 的 “官方道歉声明” 开始流传。声明称因审核疏漏引用谣言内容,承诺永久撤回不实信息并赔偿,生效时间为 “2025 年 7 月 2 日 10:00 前”。
部分媒体跟进报道,网友也将其视为这家极少发表技术外言论的 AI 公司的正式回应。但细究这份声明,“封禁恶意造谣账号”“赔偿承诺” 等表述并不符合 AI 平台常规处理方式,且 DeepSeek 的官方微信、官网、社交媒体账号均未发布过相关内容。
可为何这样漏洞明显、看似 AI 生成的内容能快速被大众接受?关键在于 AI 进步冲击生活的同时,人们对 AI 内容的取信度不断提升,却对其背后逻辑缺乏理解,这为谣言传播提供了土壤。
AI 模型的 “集体迷失”:多数 “确认” 谣言,少数保持清醒
为探究 AI 对该事件的态度,测试了 10 家 AI 大模型和 2 家 AI 搜索产品,结果显示多数认为 DeepSeek 确实道歉了,仅混元 T1、Qwen3 (分析研究)、Gemini2.5 pro 除外。
这些模型的搜索素材多来自三湘都市报、羊城晚报微信号等有一定官方性质的内容,涉及多家资讯平台。值得注意的是,秘塔搜索搜到辟谣信息,却将其作为支撑谣言的论据;智谱在回答中提到 DeepSeek 道歉系造谣,最终总结却自相矛盾地认为道歉了。
唯三否认谣言的模型中,Qwen3 通过多步骤搜索,调用工具查询文书网站,因查不到相关刑事判决书认为道歉存疑;Gemini 和混元则识别到可靠的辟谣文章,认为其可信度高于其他信源。
谣言传播背后的深层逻辑:AI 时代信息链的脆弱性
这场闹剧暴露了 AI 产品在信息处理上的诸多问题,也反映出 AI 时代信息传播链的脆弱。
从产品角度看,AI 产品面对庞大用户量,却可能交付不准确结果。普通用户对 AI 产品认知不足,多从 “搜索”“社交” 和 “聊天软件” 的角度理解,想当然认为其生成的与产品公司有关的言论就是官方言论。
技术逻辑上,生成内容理论上可被反复自我强化。在竞争激烈的环境下,模型和产品公司重视 “数据飞轮”,用户数据和语料被快速吸收,新发生的信息少的事情若被集中 “灌输”,可能成为模型生成时采纳的 “事实”。
信息渠道方面,各渠道互不相通的老问题依然存在。很多模型生成内容时会给出链接,但部分网站质量难保证。这些网站大量抓取模型不便直接 “爬取” 的渠道内容,使 AI 产品绕开信息墙,却导致对信息源缺少分类和判断,留下被操控信息的漏洞。
更严重的是,被污染的语料会以一手资料的模样回到各渠道,甚至严肃渠道,得到背书后彻底变成 “事实”,再被模型内化,形成恶性循环。
警示与反思:AI 时代需筑牢信息防线
这次 “DeepSeek 道歉” 闹剧并非个例,类似的荒谬事件可能还会不断出现。这提醒我们,在 AI 技术快速发展、对人类影响日益深刻的当下,必须重视其潜在问题。
对于 AI 企业,应加强对信息源的审核与判断,建立更完善的信息过滤机制,避免虚假信息被吸收和传播。同时,要主动向用户普及 AI 产品的工作原理,提高用户对 AI 生成内容的辨别能力。
监管部门需加快出台相关法律法规,规范 AI 产品的信息传播行为,明确责任划分,对恶意操控信息、传播虚假内容的行为进行严惩。
作为用户,要理性看待 AI 生成的内容,不盲目相信,培养对信息的辨别能力,遇到存疑信息时多方求证。
只有 AI 企业、监管部门和用户共同努力,才能在 AI 时代筑牢信息防线,避免虚假信息引发的认知迷局,让 AI 技术真正为人类造福。

作者:杏耀注册登录测速平台




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT © 杏耀注册登录测速平台 版权所有