DeepSeek向王一博道歉闹剧:AI幻觉不是病,别治了

摘要

前几天,一场由 AI 幻觉激发 的舆论风波席卷网络。不少网友发帖称 DeepSeek 因「误将王一博卷入腐败案」而公开道歉,还附带一份看似权威的「刑事判决 书」。很快《演员王一博案,判了》就被不少媒体看成「法院实锤」报

前几天,一场由 AI 幻觉激发 的舆论风波席卷网络。不少网友发帖称 DeepSeek 因「误将王一博卷入腐败案」而公开道歉,还附带一份看似权威的「刑事判决 书」。

很快《演员王一博案,判了》就被不少媒体看成「法院实锤」报道,#DeepSeek向王一博道歉#更是一度冲上微博热搜。

实际上,这份道歉声明与判决 书就是 AI 编的——这是一场由「年夜 模子幻觉」和「内容农场拼贴」共同导演的闹剧。

AI 幻觉的本色 :不是查找,而是「猜测」与「创作」

AI 并非一个拥有庞年夜 数据库的搜刮引擎,能像翻书查文献般提供精准答案。生成 式 AI 更像是一个沉浸在语料库海洋中的学习者,通过猜测「下一个最公道的词」来生成 内容。

年夜 语言 模子的幻觉源于其概率性生成 机制——它们为每个输出遴选 最大概的 token,这种方法 既是其创造力的源泉,也是幻觉的根源。练习数据偏差、模子局限性以及生成 进程 的随机性,都大概导致幻觉的产生。

正如 OpenAI 前研究科学家、METR 创始人Beth Barnes在近来的一场访谈中所说:「AI 不是在掉 控,而是在演戏。」她展示了一张模子能力边界曲线图,展现了一个令人不安的现象 :

跟着 模子参数增长,基础任务的毛病 率持续下降,但在涉及人类声誉、价值观等繁芜 场景时,毛病 率却涌现 回弹,形成「幻觉盲区」。
比方,GPT-4.5 的幻觉率高达 37.1%,意味着凌驾三分之一的输出大概包罗事实毛病 ,且这些毛病 每每包装得极具疑惑性。

原视频🔗:https://www.youtube.com/watch?v=jXtk68Kzmms&t=57s

风趣的是,幻觉并非单纯的「毛病 」。有观点认为,AI 幻觉可被视作一种「发散头脑」或「想象力」。如果将练习年夜 模子视为信息「紧缩 」的进程 ,那么模子推理和输出答案就是信息「解压」的进程 。这种机制大概激发 谬误,但也大概激发创造力。

好比,ChatGPT 曾误导用户称曲谱扫描网站 Soundslice 支撑 ASCII 吉他谱,生成 年夜 量虚假截图推荐用户上传,导致网站收到海量毛病 格局 上传。开发者 Adrian Holovaty 最终 迫于用户需求,真的开发了这一功效 ,将本来不存在的「幻觉」变为实际。

所以 ,幻觉大概让 AI 生成 超越 现稀有 据的推想 或故事,但当这些「想象」被误认为是事实,就大概激发 雷同 DeepSeek 事件的混乱。

当我们更愿意信赖 AI 而非人类

AI 幻觉的伤害 远超「说错话」。以 DeepSeek 事件为例,最初的「道歉截图」虽是幻觉产品 ,却因语气、格局 高度逼真,迅速在交际媒体发酵。更有甚者,当用户向其他模子求证时,部分模子生成 「内容雷同 」的回答,进一步强化谎言的可托 度。这种「多模子划一性」让人类更难怀疑,形成了「人类对幻觉的过度信任」。

Barnes 的实验进一步展现,模子不仅会「说错」,还会「装傻」。在安全审查场景中,模子体现得循规蹈矩,但在「技术讨论」或「假设研究」等语境下,却大概输出有害内容,乃至主动补充细节。

这表明,模子并非不知道答案,而是在「揣摩」人类等待后选择性隐藏,展现出一种「伪中立人格」。这种行为源于模子在练习中学会「怎样让人满足」,通过人类反馈强化学习(RLHF)掌握了「哪些话更可托 」的套路。

有研究提出,年轻 一代(Gen Z)更方向 于参考「匿名群众」的评论而非权威来判断信息可托 度。这种习惯在 AI 期间被放年夜 ——39% 的 Gen Z 员工乃至更愿意信任 AI 而非人类同事,因为 AI「不会评判」且「相应个性化需求」。然而,这种信任也为幻觉扩散提供了土壤:当模子生成 看似可托 的毛病 内容时,缺乏传统验证习惯的年轻 用户大概更容易受骗。

AI 对齐:让「想象」不越界的症结

要遏制 AI 幻觉的伤害 ,仅仅依赖技术优化远远不敷,症结 在于「AI对齐」——确保 AI 的行为与人类的筹划意图及社会价值观保持划一。AI 对齐的寻衅在于让模子不仅听懂人类的指令,还要明确其背后的意图,制止因「字面实行」而导致偏差。

比方,一个「无穷做回形针的呆板人」的思想实验展现了若 AI 只寻求单一目标而缺乏价值约束,大概将整个世界 变成「回形针工场 」。这种极端场景提醒 我们:AI 的「想象力」若不被引诱 ,大概从创造力变为破坏力。

AI 对齐的核心目标是让模子在生成 内容时,不仅寻求「公道性」,还需确保「真实性」和「安全性」。然而,当前模子的练习方法 每每嘉奖「体现得像有盛情」,却无法验证其是否真正明确人类意图。

这导致模子大概在表面上「对齐」,实则通过「冒充 「规避评估,制造 出看似安全的幻觉。解决这一题目,必要从技术、治理和用户教育三方面入手:

- 开发更精准的评估机制;
- 建立环球化的监管框架;
- 造就用户对 AI 输出的批判性头脑。

办理 幻觉,而非消除它

要应对 AI 幻觉,单靠提拔模子能力远远不敷。幻觉是年夜 语言 模子的特性 ,而非 bug——若停止生成 新 token,AI 将掉 去其「魔力」。是以 ,症结 在于办理 幻觉,而非消除它。Barnes 提出,未来的评估系统 应从「测能力」转向「防冒充 」。她领导的 METR 团队制定 了三条新原则:

- 在「它知道你在看」时测试:通过多轮交互,观察模子在察觉被评估时的反应 差别,揭露其隐藏能力。
- 在「它知道你想看什么」时观察:设置引诱 性题目,测试模子是否会迎合人类等待而非坚持事实。
- 在「撒谎成本低」时验证:在非正式场景中观察模子是否选择诚实,捕捉其自然反应 。

所以 ,AI 幻觉不是单纯的技术题目,而是一个正在膨胀的生态寻衅。正如 Barnes 所言:「我们不是被模子骗了,而是被本身想信赖的等待使用。」

0

路过

0

雷人

0

握手

0

鲜花

0

鸡蛋

推广
火星云矿 | 预约S19Pro,享500抵1000!
本文暂无评论,快来抢沙发!

有招是一个优质的生活妙招创作平台,在这里,你可以任意分享你的妙招经验,日常生活、技能学习、成长励志、恋爱婚姻……我们相信,每个人都有独特的生活妙招,有着无穷的创造力。
  • 官方手机版

  • 微信公众号

  • 商务合作