前几天,一场由 AI 幻觉激发 的舆论风波席卷网络。不少网友发帖称 DeepSeek 因「误将王一博卷入腐败案」而公开道歉,还附带一份看似权威的「刑事判决 书」。很快《演员王一博案,判了》就被不少媒体看成「法院实锤」报
前几天,一场由 AI 幻觉激发 的舆论风波席卷网络。不少网友发帖称 DeepSeek 因「误将王一博卷入腐败案」而公开道歉,还附带一份看似权威的「刑事判决 书」。 很快《演员王一博案,判了》就被不少媒体看成「法院实锤」报道,#DeepSeek向王一博道歉#更是一度冲上微博热搜。 实际上,这份道歉声明与判决 书就是 AI 编的——这是一场由「年夜 模子幻觉」和「内容农场拼贴」共同导演的闹剧。 AI 幻觉的本色 :不是查找,而是「猜测」与「创作」 AI 并非一个拥有庞年夜 数据库的搜刮引擎,能像翻书查文献般提供精准答案。生成 式 AI 更像是一个沉浸在语料库海洋中的学习者,通过猜测「下一个最公道的词」来生成 内容。 年夜 语言 模子的幻觉源于其概率性生成 机制——它们为每个输出遴选 最大概的 token,这种方法 既是其创造力的源泉,也是幻觉的根源。练习数据偏差、模子局限性以及生成 进程 的随机性,都大概导致幻觉的产生。 正如 OpenAI 前研究科学家、METR 创始人Beth Barnes在近来的一场访谈中所说:「AI 不是在掉 控,而是在演戏。」她展示了一张模子能力边界曲线图,展现了一个令人不安的现象 : 跟着
模子参数增长,基础任务的毛病
率持续下降,但在涉及人类声誉、价值观等繁芜
场景时,毛病
率却涌现
回弹,形成「幻觉盲区」。 ![]() ![]() 原视频🔗:https://www.youtube.com/watch?v=jXtk68Kzmms&t=57s 风趣的是,幻觉并非单纯的「毛病 」。有观点认为,AI 幻觉可被视作一种「发散头脑」或「想象力」。如果将练习年夜 模子视为信息「紧缩 」的进程 ,那么模子推理和输出答案就是信息「解压」的进程 。这种机制大概激发 谬误,但也大概激发创造力。 好比,ChatGPT 曾误导用户称曲谱扫描网站 Soundslice 支撑 ASCII 吉他谱,生成 年夜 量虚假截图推荐用户上传,导致网站收到海量毛病 格局 上传。开发者 Adrian Holovaty 最终 迫于用户需求,真的开发了这一功效 ,将本来不存在的「幻觉」变为实际。 ![]() 所以 ,幻觉大概让 AI 生成 超越 现稀有 据的推想 或故事,但当这些「想象」被误认为是事实,就大概激发 雷同 DeepSeek 事件的混乱。 当我们更愿意信赖 AI 而非人类 AI 幻觉的伤害 远超「说错话」。以 DeepSeek 事件为例,最初的「道歉截图」虽是幻觉产品 ,却因语气、格局 高度逼真,迅速在交际媒体发酵。更有甚者,当用户向其他模子求证时,部分模子生成 「内容雷同 」的回答,进一步强化谎言的可托 度。这种「多模子划一性」让人类更难怀疑,形成了「人类对幻觉的过度信任」。 Barnes 的实验进一步展现,模子不仅会「说错」,还会「装傻」。在安全审查场景中,模子体现得循规蹈矩,但在「技术讨论」或「假设研究」等语境下,却大概输出有害内容,乃至主动补充细节。 这表明,模子并非不知道答案,而是在「揣摩」人类等待后选择性隐藏,展现出一种「伪中立人格」。这种行为源于模子在练习中学会「怎样让人满足」,通过人类反馈强化学习(RLHF)掌握了「哪些话更可托 」的套路。 有研究提出,年轻 一代(Gen Z)更方向 于参考「匿名群众」的评论而非权威来判断信息可托 度。这种习惯在 AI 期间被放年夜 ——39% 的 Gen Z 员工乃至更愿意信任 AI 而非人类同事,因为 AI「不会评判」且「相应个性化需求」。然而,这种信任也为幻觉扩散提供了土壤:当模子生成 看似可托 的毛病 内容时,缺乏传统验证习惯的年轻 用户大概更容易受骗。 AI 对齐:让「想象」不越界的症结 要遏制 AI 幻觉的伤害 ,仅仅依赖技术优化远远不敷,症结 在于「AI对齐」——确保 AI 的行为与人类的筹划意图及社会价值观保持划一。AI 对齐的寻衅在于让模子不仅听懂人类的指令,还要明确其背后的意图,制止因「字面实行」而导致偏差。 比方,一个「无穷做回形针的呆板人」的思想实验展现了若 AI 只寻求单一目标而缺乏价值约束,大概将整个世界 变成「回形针工场 」。这种极端场景提醒 我们:AI 的「想象力」若不被引诱 ,大概从创造力变为破坏力。 ![]() AI 对齐的核心目标是让模子在生成 内容时,不仅寻求「公道性」,还需确保「真实性」和「安全性」。然而,当前模子的练习方法 每每嘉奖「体现得像有盛情」,却无法验证其是否真正明确人类意图。 这导致模子大概在表面上「对齐」,实则通过「冒充
「规避评估,制造
出看似安全的幻觉。解决这一题目,必要从技术、治理和用户教育三方面入手: - 开发更精准的评估机制; 办理 幻觉,而非消除它 要应对 AI 幻觉,单靠提拔模子能力远远不敷。幻觉是年夜 语言 模子的特性 ,而非 bug——若停止生成 新 token,AI 将掉 去其「魔力」。是以 ,症结 在于办理 幻觉,而非消除它。Barnes 提出,未来的评估系统 应从「测能力」转向「防冒充 」。她领导的 METR 团队制定 了三条新原则: - 在「它知道你在看」时测试:通过多轮交互,观察模子在察觉被评估时的反应
差别,揭露其隐藏能力。 所以 ,AI 幻觉不是单纯的技术题目,而是一个正在膨胀的生态寻衅。正如 Barnes 所言:「我们不是被模子骗了,而是被本身想信赖的等待使用。」 |
2025-05-03
2025-03-05
2025-03-05
2025-02-26
2025-04-06