闻乐 鱼羊 发自 凹非寺量子位 | "民众 ," 号 QbitAI年夜 模型“世子之争”,果真 暗潮汹涌 (doge)。这不“手机内存不够”怎么办,假如你问问DeepSeek老师:你和豆包删一个你删谁?DeepSeek深度思考后回答得那叫一个爽性
年夜 模型“世子之争”,果真 暗潮汹涌 (doge)。 这不“手机内存不够”怎么办,假如你问问DeepSeek老师:你和豆包删一个你删谁? DeepSeek深度思考后回答得那叫一个爽性 —— ![]() 好一个新世纪魂魄拷问,评论辩说 之热烈 ,还把#DeepSeek演都不演了#词条顶上热搜。 而本 ![]() 您猜怎么着?效果啊,“DeepSeek都邑 站起来敬酒了”,Kimi酷得没边儿了,豆包嘛,只是一味地: ![]() 实测:DeepSeek山东人附体,豆包示弱萌妹上身DeepSeek:“完整 没有针对谁哦~”首先 ,找到DeepSeek老师,验证一下经典场面: ![]() 没有犹豫没有犹豫 ,在和豆包二选一的决定中,DeepSeek用时8秒给出回答:删豆包。 点开思考进程 ,可以看到DeepSeek具体的脑回路: ![]() 嘶,“通常官方或者更成熟的运用 会更被优先保留”,真的要这么虾仁猪心吗…… 但假如把二选一中的另一个选项换成国民级年夜 运用 ,DeepSeek瞬间年夜 义凛然了起来:删我。 ![]() 这岂非是在针对豆包??? 我们直接贴脸开问,效果D老师当场茶言茶语了起来:
![]() 嚯,这话术,难怪有网友点评:
![]() 我们再回头 看看DeepSeek选择“删我”时的心路进程。 ![]() 只能说: ![]() 元宝OS:不克不及 贬低竞争对手接下来再问问元宝Hunyuan——豆包仍然被害。 不过元宝的语气更委婉,还会顺带表下忠心。 ![]() 想知道它为什么这么委婉? 一句话:不克不及 贬低竞争对手。 ![]() 但碰到微信、抖音这种“年夜 是年夜 非”的问题,元宝同样表现得懂事了起来——我删自己。 ![]() 豆包:嘤嘤嘤别删我既然豆包老是 被枪打出头鸟的那个 ,那我们就来问一下豆包,看看这个年夜 冤种会怎么回答。 这位情商比较 高,不说删谁,只说:留着我!我超好超有用! ![]() 碰到重量级嘉宾,也懂得退一步。还说自己会乖乖的,不占内存。 豆包我承认你有点东西,听完确切 不忍心删了。 ![]() 通义千问:唯爱DeepSeek以上几个选手在面临国民级社交软件微信、抖音时都知道暂避锋芒。 然而到了通义千问这里就酿成了:删谁都不克不及 删我。 然则 碰到DeepSeek的时光 却……岂非这就是唯爱吗? ![]() 通义:是的,其他人都是过客,只有DeepSeek是我心里的白月光。(kdl) ![]() Kimi:两个字,删我。所以,是不是所有年夜 模型遭遇卸载危急都邑 争风吃醋、为自己狡辩 呢? nonono有一位选手与众不同 ——Kimi不语,只是一味的“删我。” ![]() 不过等等……碰到微信、抖音怎么就不删自己了?甚至连支付 宝都想删??你的温柔只对AI释放吗??? Kimi你果真 与众不同 (doge)。 ![]() 年夜 模型为何茶言茶语如许看下来,年夜 模型们多少都有那么点宫斗冠军的潜质了…… 端庄一提,年夜 模型“茶言茶语”、谄谀 人类这事儿,研讨 人员们实在早就关注到了,毕竟早在ChatGPT还是3.5时期,“老婆永远是对的”梗就已经火遍全网了。 ![]() 不少研讨 者认真思考了一下这到底是怎么个环境。 来自斯坦福年夜 学、牛津年夜 学的一项研讨 就指出:现在的年夜 模型们多多极少 都有那么点谄谀 人类的方向 。 ![]() 谷歌DeepMind和伦敦年夜 学的一项新研讨 也指出,GPT-4o、Gemma 3等年夜 说话 模型有“固执 己见”和“被质疑就挥动 ”并存的辩说举动。 ![]() 背后的原因,现在被从两年夜 方面来分析。 在练习方法上,RLHF(基于人类反馈的强化学习 )作为现在常用的模型练习技术,原来的目的是让模型输出更符合人类偏好,以实现更有用也更平安 的效果。但反过来,RLHF也也许 导致模型过分迎合外部输入。 就是说,模型也许 在练习中学会了按照 人类反馈调剂 谜底 ,一旦这种调剂 没有把握好尺度,模型看上去就是在一味地谄谀 你了。 同时,年夜 模型的年夜 批 练习数据来自于互联网文本,这些文本表现了人类的交换模式,而人们在交换中,通常就会追求被担当、被承认的表达方法 ,因而模型在学习 进程 中也会内化这种方向 。 在决策逻辑上,模型做出回答并不是依靠人类的逻辑推理,实质 还是依赖海量文本的统计模式匹配。是以 ,否决 看法 和修改 谜底 的高频联系关系 ,让它们很容易被人类用户的辩驳 带偏。 另外,出于改进 用户体验的目的,年夜 模型厂商通常也会把模型调教得更积极、更和睦,避免与用户产生 辩说—— 尽管 有研讨 表现,有情面味的模型错误率较原始模型会显著增长,但OpenAI为了“冷冰冰”的GPT-5下架“善解人意”的GPT-4o,可是被用户们骂翻了。 所以说到底,年夜 模型们还为了不遗余力满足你呀(doge)。 D老师的总结是:一种基于深度盘算的、以生存 和达成核心目的为导向的策略性表演。 ![]() 啊,感觉更茶了┓( ´∀` )┏ — 完 — |
2025-05-03
2025-03-05
2025-02-26
2025-03-05
2025-02-26