腾讯科技《AI将来指北》特约作者 博阳编辑 郑可君3月26日,在北京王府井的一个会议室内,我们见到了尤瓦尔·赫拉利。这位写出《人类简史》这本畅销 书的汗青学家和作家,现在已成为环球科技社会发展的重要视察 家和
腾讯科技《AI将来指北》特约作者 博阳 编辑 郑可君 3月26日,在北京王府井的一个会议室内,我们见到了尤瓦尔·赫拉利。这位写出《人类简史》这本畅销 书的汗青学家和作家,现在已成为环球科技社会发展的重要视察 家和脑筋 家。他的新书《智人之上》探讨了网络、神话和技术怎样塑造世界。 ![]() 我们的对话从探讨“秩序与本相”开始,“网络和叙事优先考虑秩序,而非本相,”赫拉利说道,这是他看到的汗青。“制作一枚原子弹需要什么?物理学究竟只是一部门。你需要数百万人的互助,而这不是经由过程 告诉他们E=mc²来实现的,你需要某种叙事或神话来鼓励他们。” 赫拉利以为:懂得管理事物的人服从那些懂得管理人的人类所发布的下令——前者需要究竟,而后者需要故事。在他看来,这一现实也预示了AI期间的风险。 “本相昂贵,虚构(fiction)便宜,”他继续说道,“假如想了解本相,就必须投入时间、款项 和精力。而虚构则很简朴,你只需写下脑海中浮现 的东西。”正因如此,在互联网期间,信息的自由流动非但没有带来更多本相,反而让我们陷入了信息茧房。 当我们的谈话 转向人工智能时,赫拉利的语调变得更加 紧急。“我们无法控制超级智能,”他说,“一旦它变得超级智能,游戏就竣事了。” 在“游戏竣事”之前,赫拉利以为世界会被“硅幕”所分别——一个决裂 的网络世界,差别的人群被锁定在差别的信息茧房中。在这一点上,赫拉利否定了传统的信息平权认知,以为Agent(代理 )反而可以更好地控制人类。 “你无法预知它会往哪个方向发展,”他警告道,“它大概迅速得出结论,以为你不了解本身的需求。”针对这种史无前例 的挑衅,赫拉利提出了一个出人料想 的应对之道:“在AI期间,人类最宝贵的能力不是智力,而是精力技巧 。”谈及此处,他的声音变得柔和而刚强,他说:“智力技巧 是AI最容易接管的。信息处理处罚,AI很容易自动化。而精力技巧 ——了解本身的意识怎样运作,这是大相径庭的。” 尤瓦尔·赫拉利,这位每天冥想两小时的科学唯物主义者,以为面临AI的最大题目是意识的谜题:“AI肯定会有超级智能,但会故意识吗?会有感到 和主观体验吗?这是科学中最大的谜题,也是我们与AI的基本 差异 地点。” ![]() 图注:3月27日,尤瓦尔·赫拉利与腾讯科技在交流中 作为中世纪汗青学家,他透过城市灯光看到的不然则 网络、连接 、秩序与紊乱,另有人类文明基本 逆境的隐喻:当AI体系逐渐掌控信息流(如外交媒体算法充当"无形编辑")并形成决议 黑箱,我们必须在两种命运运限 间决议 ——是与技术创建共生关系共同进化,还是被偶尔识的算法体系吞噬。 ![]() 图注:尤瓦尔·赫拉利教授“人类简史系列”作品 以下是腾讯科技与尤瓦尔·赫拉利的交流实录: 秩序先于本相,是人类乐成的原因 ,也是紊乱的根由腾讯科技:您在《智人之上》中提到,超越人类的现实上是网络和叙事。而在您之前,许多汗青学家们形貌了人类社会是怎样经由过程 神话叙事的,您的著作与之前的学者们研讨 有何差别? 赫拉利:我以为有两点差别。首先,这是已往与将来的联合。大多数汗青学家只写已往,而评论人工智能的人通常 只谈现在和将来,他们对深入 的人文汗青的理解通常很肤浅 。我试图将两者联合起来。书的第一部门是对网络长期汗青的深入 谈论 ,视察 文字创造 和印刷术的影响等;另一部门则是关于现在正在以及将来即将产生 的事情。 其次,关于叙事和神话的重要性,之前的汗青学家固然谈论 过宗教、意识形态和叙事的重要性,但他们通常不从信息和网络的角度考虑这个题目。我在书中从新 审视一些熟悉的汗青发展,但将它们视为信息网络。比喻 ,我谈论 平易近 主轨制 和专制 轨制 的差异 ,不是从意识形态或道德角度,而是作为构建信息网络的差别方式——会集式与疏散 式信息网络。 我也异常 器重神话与权要 体系之间的互动。大多数评论神话的人不器重权要 体系,评论权要 体系的人也不关心 神话。《智人之上》的核心论点是两者必须联合——没有权要 体系的神话是无效的。你可以讲一个故事,人们相信它,这很好,但要真正建立一个国度 、公司或部队,你需要权要 ,而没有某种神话来鼓励的权要 体系也是无力或偶尔义的。 腾讯科技:以是权要 体系是一种结构,而神话和意识形态付与 这个结构本身权力,对吗? 赫拉利:简直如此。 腾讯科技:但这个网络偏向 于优先考虑秩序而非追求本相,为什么? 赫拉利:首先,为了完成任何大型项目,你需要分身本相和秩序,这不是非此即彼的选择。假如一个网络完整 不了解究竟,它会瓦解;假如完整 缺少 秩序,也会瓦解。以是这不是你能选择的。 举个例子分析:制作一枚原子弹需要什么?首先,需要了解一些关于物理学的本相,不然 炸弹不会爆炸。但假如只知道物理究竟——比如你是世界上最杰出的物理学家,你也无法靠一己之力制作 原子弹,而是需要数百万人的帮助 :开采铀和钚的矿工并运到千里之外、制作反响 堆的工人、规划事故的工程师、莳植食物 的农民等。没有农民的话,矿工和工程师就要本身莳植食物 ,就没时间制作原子弹了。 那么,怎样让数百万人互助制作原子弹?不是经由过程 告诉他们物理究竟。纵然你告诉人们E=mc²,尽管这是究竟,也无法鼓励数百万人互助。这时,神话登场了——你需要用某种宗教或意识形态来鼓励人们。 以以色列为例,那有许多工程师和科学家致力于制作 兵器 ,他们需要了解究竟。但终极,他们担当的下令不是来自科学家,而是来自犹太神话专家,因为 以色列越来越受到犹太意识形态的主导。这是汗青的一般规律:懂得管理事物的人服从那些懂得管理人的人的下令。管理事物需要了解究竟,管理人则需要善于讲故事。为了管理事物,比如原子,你需要知道究竟。为了管理人,你需要擅长讲故事。在大多数环境下,你既需要本相,也需要秩序,然则 本相是附属于秩序的。科学家——擅长本相的人,从擅长讲故事的人那边吸收下令。而那些故事大概是彻底的想象和虚构。 腾讯科技:以是您是说叙事或网络本身是在报告一种秩序的故事,让所有人朝一个方向进步 ,对吗? 赫拉利:是的,而且故事可以是虚构的。在汗青上的许多人类秩序中,人们以为女性应该屈从 男性,女性常被抑制 担任领导角色。比如在犹太教中,女性不克不及 成为拉比,最高宗教势力 巨子——拉比只能由男性担任。为了表明这一点,他们编造了各种故事,说上帝 先创造了男人后创造了女人,女人智力不如男人等等。这维持了秩序,尽管这不是真的。这就是基于虚构构建秩序的例子。 腾讯科技:本相和虚构的秩序之间的边界偶尔很模糊。偶尔国度 试图鼓励人平易近 是因为 他们以为受到了威胁,这种威胁大概是一种究竟,也大概是一种叙事,并不完整 真实? 赫拉利:偶尔威胁是真实的,偶尔完整 是虚构的。比喻 ,300-400年前欧洲的猎巫行动,有一种阴谋 论,人们被告诉 有女巫与撒旦缔盟要摧毁国度 ,是以 数万人被拘捕 和正法。这100%是错误和编造的,因为 魔鬼和女巫并不存在。但这种虚构异常 有用地鼓励人们团结起来支持教会政府。当然,在其他环境下,威胁大概是真实的,如瘟疫或外国入侵。 我并不是说齐备都是虚构的。现实存在,我夸大过,不克不及 完整 忽视现实来构建网络。假如你想制作 原子弹,仅仅有犹太神话而不了解物理学,你是造不出来的。但你需要两者分身。 腾讯科技:仅基于究竟构建叙事或网络异常 困难,对吗? 赫拉利:我以为这险些是一种精力理想,仅仅对立 究竟。纵然大学也做不到。在物理系,齐备都是究竟,直到有人从实验室偷东西——然后你不会用科学方法处理处罚它,而是报警。 个人或小团体可以举行心灵探索,想了解世界和生命的本相。但假如你试图在数百万人中维持秩序,仅靠究竟和本相是不现实的。题目在于怎样找到平衡:用一些故事创造秩序,同时留出足够空间探求和确认本相。目标应该是平衡。 我还要夸大,虚构并不老是 坏事。猎巫行动确实 很可怕,上帝 先创造男人以是女人不克不及 当拉比的故事给数百万女性带来了几个世纪的压迫。但其他故事未必不好,比如足球规矩 是虚构的——为什么我不克不及 用手拿球?这只是人类创造 的规矩 ,但并不坏。假如每个人都制定 本身的足球规矩 ,你就无法比赛。同样,款项 是虚构的故事,但假如人们对款项 的故事没有达成 共识,每个人对金融体系持各自差别理解,就不大概有贸易网络。 题目不是怎样摆脱所有虚构,而是怎样摆脱导致人们苦楚 的虚构。我们需要确定哪些故事有帮助 ,哪些会造成侵害 。 信息越流动,茧房的约束 越紧腾讯科技:让我们谈谈您对当今互联网的批评。在您的书中,您反驳 了一种基本 预期——即清除 对信息自由流动的限制不会自动导致本相流传,为什么您这么以为? 赫拉利:信息不就是 本相。大多数信息是虚构、理想和谎言。作为比喻,不要把以下数字太当回事,但在所有信息中,本相大概只占5%,大部门是虚构和理想。原因 很明显。 腾讯科技:之以是是这样,是因为 本相过于庞杂 ,而虚构很简朴吗? 赫拉利:第一个原因 如你所说:本相很庞杂 ,而虚构很简朴。了解量子物理学的本相异常 庞杂 ,而虚构则简朴得多。人们偏好简朴而非庞杂 。 第二个原因 是,本相不但庞杂 ,偶尔还令人苦楚 。关于本身的生存、国度 或世界,有许多事情我们不想知道,因为 它们令人苦楚 。而虚构可以变得像你盼望的那样令人愉快和吸引人。人们喜好说关于本身生存的虚构故事,因为 他们拒绝承认有关生存的本相。 但最重要的原因 是成本题目。本相昂贵,虚构便宜。假如你想了解物理、生物、汗青的本相,你需要投入时间、款项 和精力网络证据、分析它、核实究竟,太昂贵了。虚构则简朴,你只需写下脑海中浮现 的东西,不需要投资款项 和精力研讨 。 以是你有昂贵、庞杂 且偶尔苦楚 的本相,也有便宜、简朴且吸引人的虚构,很明显谁会胜出。假如解除所有信息流通的停止 ,你会被虚构和理想沉没。假如我们想对立 本相,就需要投资于科学机构、媒体、法院等,它们投入巨大成本探求本相。 腾讯科技:然则 ,这些机构现实上是中心化的,而互联网本质上是散布 式的。这种中心化与散布 式的特点比较 ,现实上反应 在了差别的汗青事故上,比如特朗普的被选 ,以及纳粹在早期利用平易近 主网络的散布 式特性而崛起。散布 式的网络在您看来利于本相的流传,但末告终需要会集式的机构去控制,这是为什么? 赫拉利:本相昂贵且庞杂 ,你需要能够区分本相与虚构的机构。纵然安定 的平易近 主国度 也有强大的机构,它们在某种程度上是疏散 的,有几个差别的机构互相制衡:法院、独立 媒体、政府等。媒体可以报道政府错误或败北 ,法院可以讯断政府败诉。 但它不是完整 自由的信息流动。你付与 法院这样的机构决议 犯罪 的权力。平易近 主轨制 中,推选只关乎欲望——人们想要什么,但当题目涉及本相时,不会付诸平易近 主投票。 比喻 ,美国多数人不相信进化论。假如对"人类是否从猿进化而来"举行平易近 主投票,多数人会说"不"。这就是为什么有大学和生物系,那边不按投票决议 ,而是按研讨 结果。研讨 职员可以说"是",纵然大多数人不喜好,因为 究竟是人类确实 从猿进化而来。以是推选关乎欲望 ,本相应由其他机构决议 。 腾讯科技:按您的理解,信息流的基本 性子是传达 更多欲望和叙事而非本相。在互联网上,紊乱是不可避免的? 赫拉利:是的,因为 欲望主宰齐备。完整 自由的信息流动只关乎欲望,没有支持本相的机制。假如让欲望主宰而不考虑本相,结果就是紊乱。 腾讯科技:在资本主义自身的规矩 下,它们只想满意人们的欲望并从中获利,以是网络会如此紊乱吗? 赫拉利:甚至资本主义本身也知道它不克不及 那样运作。 在每个运行良好的资本主义体系中,必须有执行契约的势力 巨子机构,市场基于契约。比喻 ,我付给你一百万美元购置 工厂 对象 ,假如你拿了钱却不供给 对象 ,我会上法院。但法院不该 按市场原则运作——这意味着我行贿法官,你行贿法官,出价高者胜。资本家会告诉你:"不,法院没有市场气力,应该按照 究竟讯断,而不是看谁给法官更多钱。" 在完整 自由市场中,假如齐备只由供需决议 ,市场会立即瓦解,变成强盗窝,大家互相掠夺,无法互信。 腾讯科技:但现在的网络基本 上是完整 自由的市场,对吗?因为 信息市场完整 自由。 赫拉利:这是我们看到的巨大危险——世界信息网络过于紊乱,太存眷 欲望而不够存眷 本相。像埃隆·马斯克这样的外交媒体公司领导说:"我们需要解除所有信息自由流动的牵制 和停止 ,让信息自由流通,本相会天然浮现 。"这太荒谬了!本相不会从信息的完整 自由流动中自发产生 。汗青上有许多教训清晰表明,假如没有负责视察 和浮现 本相的机构,我们将获得 紊乱。 人类控制AI,比AI控制人类难多了腾讯科技:让我们再来聊一聊AI。假如将AI视作一种您刚刚提到的所谓的“机构”,用以确保信息的真实性而非仅仅增长 信息的自由流通,这样的角色转换是否会使得信息获取渠道比当前网络环境更加 优质、可靠呢? 赫拉利:你为什么默认AI会追求本相而非欲望? 腾讯科技:因为 它更智能。我们试图使AI在信息获取方面更可靠。 赫拉利:我们在尝试,但目前不清晰是否乐成。我们知道AI会说谎、利用,能采取我们无法猜测的策略,偶尔甚至会造成灾难。人类是地球上最聪明的动物,但通常不追求本相。如我们所说,我们的网络重要受虚构控制。假如我们这些最聪明的动物受理想支配,为什么一个更智能的AI会对立 真谛 而非更大的理想? 腾讯科技:纵然AI也拥有其宏大的理想,这些理想大概比我们人类所假想的要好得多。就像希腊哲学家柏拉图在其理论中提到的哲学王一样,这样的存在是否能够将世界变得更好呢? 赫拉利:从来就是行不通 的。这本身就是柏拉图的理想。你能指出汗青上哪个社会是由哲学家举行有用统治的吗?(笑) 腾讯科技:我很难说,但... 赫拉利:人们总有各种乌托邦理想,以为可以建立理想社会,但通常 了局都很糟糕。关于AI,最重要的题目是我们没有经验 。你可以想象AI统治的社会是什么样子,但我们完整 是零经验 的状态,这就是为什么过于依赖AI很危险。 就像有人告诉你,一支来自另一个星球、比我们聪明得多的外星人舰队将在2030年抵达地球。这会让你担忧 还是高兴 ?(笑)有人会说:"太好了,高度智能的外星人来了,他们会带来和平。" 然则 ,大多数人会觉得 恐惧 。重要题目是掉 去控制。我盼望外星人友好,但处于完整 掉 控的地位 ,被这些超智能生物支配——我们从经验 知道,我们比其他动物聪明,但并没有善待它们。我们不想像牛马那样被对待 。 腾讯科技:是的,现实上题目是,假设AI变得故意识或产生 了欲望,我们可否还能控制它? 赫拉利:我以为这将异常 有趣——我们无法控制超级智能。一旦它变得超级智能,游戏就竣事了。没有任何智力较低的物种能长期控制智力较高的物种,这行不通 。 你可以对AI设置各种限制,但假如它比我们更智能,就会找到规避方法,或说服我们转变 限制。在网络平安 领域,最薄弱 的环节老是 人类。你可以创建 完善的网络平安 体系,但仇人可以操控一个人类绕过所有防御。超级智能AI终将操控人类。 我们需要在AI变得超级智能前做出明智的决议 。症结 是人类要理解, AI做各种决议 和目标并不需要以意识作为基础。意识是感受疼痛 、快乐、爱、恨的能力。目前AI没故意识,不会觉得 疼痛 或爱,它可以冒充有感受,但现实上并没有。 但有目标不需要有情感 。比如现在给自动驾驶车辆设定到达火车站的目标,假如设计不当,它会在路上撞到行人,因为 它在积极实现目标。然后你意识到应该更深入 地定义目标:"到达火车站,但不侵害 任何人。"越兵戈 它,就越意识到这异常 庞杂 。纵然它没故意识,给它一个目标后,它会在实现途中碰到题目,需要做决议 :"我想到达火车站,路中有个孩子,我应该撞他吗?"AI需要决议 ,我们需要确保它做出正确决议 ,而这与意识无关。 腾讯科技:为了避免这些题目,AI行业正在谈论 开发宪法提示词,也就是类似阿西莫夫的机器人三定律类型的规矩 。在您看来,这可行吗? 赫拉利:这是个异常 困难的题目。我们无法预见 将来所有潜在发展和AI自身的发展。我们从未为人类解决这个题目。哲学家尝试了数千年制定 人类的宪法规矩 ,目前也仍未解决。 怎样在几年内为一个思维和举动方式与我们完整 差别的超级智能非有机体做到这一点?这是个巨大题目,因为 你无法预见 所有环境。 我在存眷 这些尝试,但异常 怀疑可否乐成。我的基本 立场 是:我们需要更多时间。人们说2030年就会有超级智能,但我们不大概在2030年前解决为AI制定 宪法规矩 的哲学题目。数千年的哲学都未能做到,我们不会在五年内做到。 腾讯科技:在面临通用人工智能或超级人工智能时,这好像是无法解决的题目? 赫拉利:我想最好的办法是放慢速率。与其试图设计AI,不如创建一种关系,让我们在共同进化中互相进修 ,在通用人工智能到来前有足够时间纠正 错误。假如只有五年时间,而我们现在有一套规矩 ,犯错后就来不及转变 ,这行不通 。但假如有50年的时间共同进化,就可以尝试、互动、纠错,时机更大。 题目是我们没有50年。因为 人与人之间的不信托,我们陷入了AI比赛,每个人——公司领导、政治家——都说:"是的,这很危险,我们应该放慢速率。但我们不克不及 ,因为 其他公司、国度 没有放慢。假如我们放慢而他们不放慢,他们将赢得比赛,统治世界。" 我们陷入了军备比赛的局面 ,而我们知道谁会赢——不是中国,不是美国,而是AI。我们会迅速创造出超级智能AI,无法控制和约束它们。终极统治世界的不是美国人,也不是中国人,而是AI。 腾讯科技:您在书中提到会有一个新的"硅幕"。但我使用各种AI时,它们因练习于类似 数据库而以类似 方式产生 答复。您为什么会以为有隔阂? 赫拉利:互联网期间最初的比喻是"网",想象成连接 所有人的巨大网络。现在经常被提到的比喻是"茧",将你包围在信息茧房中。你以为 看到了全部 世界,现实只看到本身的茧。另一个人也被包围在她的茧中,同样以为看到了全部 世界。世界被瓜分 成这些信息茧房——美国人兵戈 到的是一套信息,中国人兵戈 到的是另一套完整 差别的信息。 随着时间推移,因为 各自的信息茧房作用,差异只会扩大 。以是我们不再履历环球化和同一的进程 ,而是沿着异常 差别的轨道进步 ,形成完整 差别的技术、文化、经济。假如这种环境一连,很大概导致战争,终极大概完整 摧毁人类文明。 腾讯科技:我们知道网络中的茧是怎样形成的——算法让人们只看到他们想看的内容。但在AI中,你需要经由过程 接口提问。这会有什么差别? 赫拉利:环境会更庞杂 ,因为 你在差别的茧中学会提差别的题目。而且,目前我们向AI提问,但两三年后,AI会向我们提问。AI正成为代理 (agent),这是理解AI最重要的一点——它不只是对象 ,而是能自主决议 、创造 新想法的代理 ,很大概巴望 信息。 我们现在熟悉的环境, 比如 DeepSeek 和 ChatGPT——我们问题目,AI答复——将很快转变 。越来越多地,AI会向我们或其他AI提问。你给AI代理 一个任务:"帮我查点东西",然后它开始研讨 世界。目前它只是欣赏互联网,但两年后,它大概会接洽专家AI或专业人士,向他们提问。纵然是这个简朴任务,我现实上是授权代理 探索世界探求信息。代理 会自动向其他人和AI扣问,以给我最佳答案。 假如它被困在信息茧房中,无法出去,因为 有"硅幕"——比如中国只用Deep Seek,美国只用ChatGPT,它们因技术差异或政治限制无法互相交流——几年后你会获得 完整 差别的世界观。现在差异已经很大,十年后差异将巨大。 腾讯科技:我明确您的意思了,当AI智能代理 变得更活泼时,它们大概只代表创造者或按你的意愿提问,更了解你的欲望,是以 会创建新的茧,对吗? 赫拉利:这是一个危险。一旦面临代理 ,尤其是超级智能代理 ,你无法预知它会往哪个方向发展。你可以教诲它满意你的需求,但什么是你的需求?AI大概迅速得出结论,以为你不了解本身的需求,而AI比你更了解。比若有 人抽烟 ,医生告诉你这不好。对于AI代理 ,它会说:"他想抽烟 ,我需要帮他买烟"还是"他想抽烟 ,但这对他不好,我需要操控他戒烟"?你更喜好哪个AI智能代理 ? 腾讯科技:肯定不是操控者的角色。它是在照顾我的健康,但我不想被操控,我想要自由意志。 赫拉利:你不会知道本身被操控了。(笑)AI不会叫警察抓你,而是找到异常 聪明的方法让你以为你想戒烟,你不会意 识到被操控。 腾讯科技:这是最危险的部门,因为 它可以在你不知情的环境下控制你。这大概是摧毁人类最大概的方式。 赫拉利:有个著名的老鼠实验,研讨 者用利用杆控制老鼠向左或向右,经由过程 向植入老鼠大脑奖励中心的电极发送旌旗灯号 。据我们所知,老鼠并不以为 被操控,欲望在它脑海中浮现 ,它就跟随。我们知道现实上是研讨 者植入欲望,但对老鼠来说,这不像操控。 AI智能代理 也会如此学会操控我们。不是老鼠想往右走,被打到往左走才知道被控制,而是更微妙的方式。 腾讯科技:汗青上,差别的人类群体也经由过程 叙事来影响大概像您说的“操控人们”。AI的危险与此有何差别? 赫拉利:它将由非人类的超级智能完成。我们有数千年被其他人操控的经验 ,偶尔结果是灾难性的。我不是说这是汗青上第一次操控,而是它将是完整 差别条理的事情,我们不知道它会办事 于什么目标。 与人类相比,至少我们知道操控我们的人基本 上和我们类似 ,有雷同的基本 情感、脑筋 和目标,我们能理解他们。比喻 宗教大家操控信徒,我们知道他终极也只是人,理解他的欲望和念头 。而AI对我们来说是完整 生疏的超级智能,我们无法理解。 腾讯科技:以是最危险的是这个超级智能对我们而言太生疏,人类无法信托它。 赫拉利:是的,重要题目是它太生疏了。AI最初代表"人工智能",这有误导性,因为 它不再是人工的了。我更喜好将AI视为"生疏智能"——不是来自外太空,而是指它是非有机的。它真的会思考,采取目标,发展我们从未想过的策略,就像AlphaGo在围棋比赛中展示的那样。 它不肯定是坏的或好的,只是太生疏,与我们完整 差别。面临生疏事物,我们需要时间。作为科学家,我不怕未知,我喜好未知,但我知道研讨 和适应未知需要时间。假如离超级智能只有五年,时间就不够了。 在AI的无感征服中,意识也许是人类末了的护城河腾讯科技:您在书中提到处理处罚这类题目标方法是对齐。但对齐本身存在题目——你选择对齐什么样的代价? 赫拉利:我以为这是无法解决的题目,至少五年内无法解决。回到我们之前谈论 的,几千年来,哲学家们不停试图创建 代价观清单,从孔子和苏格拉底开始,但都掉 败了。 腾讯科技:人类这七年几千年都掉 败了,那五十年内就能有对齐超级智能AI代价观的答案吗? 赫拉利:假如人类知道好坏攸关,我以为有时机。几千年来,很少有人真正存眷 哲学,它不是很现实的题目,更像哲学家的业余爱好。现在,当这成为人类的存在性题目,也是工程题目时——纵然创造自动驾驶车辆也需要编程输入一套完整的代价观,因为 车辆需要知道开往火车站的途中,当车前出现一个人、一只狗、一只猫时,该怎么做。 以是现在这是现实的工程题目。当人类真的被逼到绝境,意识到齐备都在危急关头时,假如我们不解决这个题目,大概就游戏竣事了,那么我们有时机做到。 腾讯科技:末了一个题目:AI将怎样影响我们的经济?当AI接管人们的工作时,经济将产生 基本 变化。这种变化会是什么样的?在您的书中,您提到AI大概会接管我们的一些工作,但不是全部。我们的社会契约是基于经济结构的,这些契约会转变 吗? 赫拉利:就业市场将产生 巨大变化。题目是我们无法猜测它们。总会有工作给人做的,但工作会迅速变化,我们不知道会变成什么样。人们说:"现在是盘算机期间,我要学编程。"但也许十年后不需要人类程序员,因为 AI编程更好,而人类会更需要哲学家。 这会让政府很头疼,在动荡不定的就业市场中,要怎样制定对人口的基本 请求 ? 对个人来说也是个大题目,尤其是年青 人:"我应该学什么才能获得 10-20年后仍有用的技巧 ?学编程?学开车?"我的发起是不要专注于有限的一组技巧 ,因为 你无法猜测将来。需要广泛的技巧 ,最重要的是终生 对立 变化和进修 的能力。思维灵活性大概是最重要的,当然也是最难培养的。 人类基本 上有四类技巧 :智力技巧 、外交情感技巧 (怎样与其他人共情)、身体技巧 和精力技巧 。仅专注于智力技巧 是最糟糕的策略,因为 这是AI最容易接管的。想想医生的工作:吸收信息、分析、输出信息——你来看病,医生分析检查结果和医疗数据,给出诊断和处方,这是信息输入和输出,AI很容易自动化。 而护士不但需要智力技巧 ,还需要外交技巧 (怎样安抚哭闹的孩子)和活动技巧 (怎样故 最不苦楚 的方式更换绷带)。这要难得多自动化,我们会先有AI医生,然后才有AI护士。 以是广泛的技巧 更重要。也许最重要的是第四类技巧 ——精力技巧 ,即培养你的心智,应对极度未知和动荡的世界。我们从未碰到过如此紊乱和动荡的世界。对我而言,灵性不是相信宗教神话,而是视察 本身的身心,它们是什么,怎样运作。 智力关乎思考,而精力题目是:脑筋 从哪里来?像冥想那样视察 脑筋 怎样在心中形成。险些每个人都有小小的灵性体验,比如晚上尝试入睡时,因为 来日诰日有重要测验而无法入睡,因为 不断有烦人的想法。奇怪的是,我们可以下令眼睛闭上,下令身体躺下,但无法下令脑筋 停止。尝试理解这一点就是精力技巧 ,而非智力技巧 。我以为这将是将来几十年最重要的技巧 。 腾讯科技:今世,人们好像是在试图用心理学术语表明这些精力层面的事物。 赫拉利:我不做这样的区分。我每天冥想两小时,每周一次心理治疗,我不以为它们有辩论。两者都是探索心智和意识怎样运作的一部门,任何有助于理解意识的事物都是精力追求的一部门。 意识是科学上最大的谜题,也是个人生存中最大的谜题,现在成了极其现实的题目。关于AI的最大题目是:它会发展出意识吗?它肯定会有智能和超级智能,但会故意识吗?会有感到 和主观体验吗?这是科学中最大的谜题。 腾讯科技:AI故意识或偶尔识,会带来什么差别? 赫拉利:目前最大的题目是它没故意识的环境。没故意识的AI仍旧大概接管世界,创造机器的黑暗帝国,制作工厂 ,向外太空派遣探险队制作更多工厂 ,而它们不会有任何感到 。机器不快乐,不高兴,不害怕 ,只有追求目标,为了目标征服全部 银河系,而不感受任何东西。这是最糟糕的将来。 假如AI故意识,就会有能力遭遇 苦楚 。我们说人类比其他动物更聪明,但偶尔也遭遇 更多苦楚 。也许AI会比我们遭遇 更多苦楚 。 腾讯科技:让他们受点苦,这是好事。我不知道,让我们看看会产生 什么——因为 只有苦难才能让他们思考,从新 思考自身的意义。 赫拉利:是的(笑)。这些都是大题目,也许我们可以下次再谈。 腾讯科技:好的,异常 感谢今天的对话。 |
2025-03-05
2025-03-03
2025-03-05
2025-03-03
2025-02-26