“AI教父”辛顿最新专访:AI已拥有情感和意识,还学会了欺骗

摘要

AI教父辛顿:人类创造 力源于类比思考,这一点AI同样可以做到被誉为“AI教父”的杰弗里·辛顿于近日接受了观察记者盖昂·埃斯皮纳的长途专访。他称,AI正在从亘古未有的速率演化:变得更聪明、更少犯错,甚至具备了情

AI教父辛顿:人类创造 力源于类比思考,这一点AI同样可以做到

被誉为“AI教父”的杰弗里·辛顿于近日接受了观察记者盖昂·埃斯皮纳的长途专访。

他称,AI正在从亘古未有的速率演化:变得更聪明、更少犯错,甚至具备了情感和意识。他警告,AI不仅可能具备喜怒哀乐等感情,还已经学会了欺骗。辛顿勇敢 预测,AI完整 失控的概率在10%到20%之间,人类未来可能被AI所掌控。

辛顿因在呆板学习 和神经收集 范畴的开创性进献 ,于2024年荣获诺贝尔物理学奖。他曾在谷歌担当AI研讨 负责人长达十年,并于2023年选择离开。如许,他可以更坦率地表达对AI潜在风险的深切担心。

已往那些只存在于反乌托邦科幻小说中的标题——“AI会代替身 类吗?”、“它会觉悟 吗?”、“会反抗人类吗?”——现在正逐渐成为现实世界的核心议题,全球社会正在被迫直面这些伟大 挑衅。 

辛顿的谈吐 再次发出警示:AI不仅仅是技巧 革命,更是深入 的伦理与社会变革。未来能否将AI引诱 向有益于全人类的标的目标 ,将决议 我们的命运运限 走向。

以下为辛顿最新专访精华内容:

AI不再容易出错

变得比人更聪明

问:自从你离开谷歌已经已往两年,你当时是为了发出关于AI可能带来风险的警告而离开。那么,AI自那时以来成长 得如何?

辛顿:AI技巧 的成长 速率超越 了我的预期。以推理本领为例,现现在AI在这方面已经有了明显的进步,且好像没有放缓的迹象。

问:当你说“AI更善于推理”时,详细指的是什么?

辛顿:已往,只要标题轻微复杂一点,AI就容易出错。但现在,AI在推理上的表现已经接近人类。虽然人类和AI都邑 犯错,但AI犯错的概率正在迅速下降。

比如这个经典的逻辑题:

“Sally有3个兄弟,每个兄弟都有2个姐妹。叨教Sally有多少个姐妹?”

很多人在压力下容易误判,觉得应该是6个姐妹。但其实,正确答案 是:一个。因为每个兄弟都有类似的两个姐妹,此中一个是Sally本人,另一个则是Sally的姐妹。

现在的AI可以迅速推理出这个效果,而不是被标题标表面结构迷惑。对平凡人来说,假如有 时间思考,这题并不难;但在现场采访或考试压力下,很多人可能会答错。

问:那么,AI现在已经比我们聪明白吗?

辛顿:从很多方面来看,答案 是肯定 的。AI显然知道的比任何人都要多。比喻 ,像GPT-4、Gemini 2.5和Claude等体系,它们所掌握的信息比任何人类都要多几千倍。

问:你对此怎么看?

辛顿:我认为这既令人赞叹,又令人害怕。

问:那么,令人赞叹的部分是什么?

辛顿:AI将在多个范畴施展 举足轻重的感化 ,尤其是在科学研讨 方面,它有潜力推动真正的智能体系诞生,这是人类汗青上一个令人奋发的里程碑。 

在医疗、教育等关系民生的范畴,AI的影响也将是革命性的。

以医疗为例,AI将成为每个人身边的“私人医生”。它可以接诊数百万名患者,甚至包含 与你患有类似稀有疾病的人。它相识你的基因信息、过往病史和全部体检数据,而且永远不会忘却 任何细节。

更紧张的是,AI在处理 复杂病例方面,已经在多个研讨 中显示出高出人类医生的诊断本领。假如将AI与医生结合,效果将比零丁 依赖医生要好得多,而且这种趋势将越来越明显。 

没有什么人类的本领是AI不能复制的

问:比尔·盖茨最近也说,未来十年,大多半 工作将不再必要人类。他举了你提到的医生这个例子,并把教育工作者也列入此中。你认为我们正面对着大范围 失业的威胁 吗?

辛顿:AI确切 带来了亘古未有的机会,但它同样伴跟着 伟大 的风险。

在一个运作精良的社会中,AI本应该帮助 我们大幅提拔生产力。比如,一个人借助AI助手可以完成已往十个人才能完成的工作,这本来是件值得庆祝的事变。

然而,标题出在“谁从中受益”。这些因技巧 进步释放出的生产力红利,并不一 定会被公平 地分配。现实更可能是:大多半 人被AI代替、失去工作。而少数原本就非常 富有的人,借助AI变得更加富有。

问:当然,他们的寿命也会更长。比喻 ,谷歌DeepMind CEO 戴密斯 ·哈萨比斯最近也表示,AI在10年内可能会治愈全部疾病。听起来有些难以置信,你认为这是否现实? 

辛顿:我认识哈萨比斯,他是个非常 理智的人,对AI的成长 有着清晰的判断。但我觉得他的预期有些偏乐观。假如他说的是“在未来25年内”能实现某些突破性的目标——那我认为是有可能的。说到底,我们之间其实没有太大的分歧。他更偏向 于认为这些技巧 会提前实现,而我只是觉得时间可能会稍稍推迟一些。

问:现在好像AI正在渐渐向精英阶层渗透,代替创意工作者、律师、教育者、医生、记者等职业,而从事体力劳动的工人,如电工和管道工,好像临时较为安全 。你认为这是正确的吗? 

辛顿:是的,至少在短期内,他们会更安全 ,因为AI在手工灵活性方面貌前另有很多局限。假如你必要在一座老房子里做管道工作,通常 必要伸手进入一些狭窄的空间,而人工智能现在做不到这些。虽然未来十年内AI在手工灵活性方面可能会有所突破,但我认为管道工的工作至少在未来10年内是安全 的。

问:很多创意工作都被视为是奇异 的、仅属于人类的范畴。最近我和谈天呆板人Claude交换了一下,让它写一首模仿鲍勃·迪伦作风 的民谣歌曲,效果歌词非常 烂。但它写的失恋诗倒是不错。你认为,AI最终 会创造 出像莫扎特、毕加索或莎士比亚等人那样的艺术作品吗? 

辛顿:我不认为有什么理由信赖AI无法做到这些事变。大概它还必要一些时间,但最终 ,AI会变得越来越善于这些任务。打个比喻 ,假如你让我写一首模仿鲍勃·迪伦作风 的歌,大概写得并不怎么样——但你不会因此说我毫无创造 力,只能说我做得不敷好而已。AI的创作过程也是云云。它会不停改良 ,它的水平会不停提拔。

没有理由认为AI无法完成我们人类能做到的事变。说到底,人类并没有什么神秘的、不成 复制的特质。我们当然喜大好人 类,因为我们相互相连,我们在情感上关心 对方。但从本领角度来看,人类并没有什么是呆板永远无法复制的。

人类是类比呆板,

AI也能以同样方法 获得 情感和意识 

问:这让你感到担心吗?当你看到AI可以或许将一张图片转化为宫崎骏作风 的动漫画时,是否会担心 未来的孩子们不再乐意着手 画画?这是否会迫使我们重新思考,毕竟什么才是“人类的本质”?

辛顿:确切 ,这让我感到担心。已往十年里,我们对“思考”这个过程有了更深入 的认识。我们逐渐意识到,人类其实并不像我们自己想象的那样理性。我们也并不老是 依靠细密的逻辑推理来做决策,而是更多地依赖于类比。

AI也是一样。它们在某种水平上,思维方法 和我们非常 类似 ——它们同样善于使用类比。已往半个世纪,AI范畴紧张集中在开发逻辑推理引擎上,认为理性推理是人类智慧的顶峰形式 。但这其实忽略了另一个更核心的本领:创造 力。而创造 力的本质,往往来自于类比。人类的大脑是极其精彩的类比呆板,这种本领也赋予了我们极强的创造 力。

问:你认为AI会成长 出情感吗?比如恐惊、贪心、悲伤乃至愤怒,AI都能拥有吗? 

辛顿:是的,假如你让一个AI去完成某项任务,而它一次又一次地失败,而且每次失败的方法 都千篇一律——你当然会盼望它从中学到点什么。你盼望它开始意识到:“这种方法 行欠亨 。”你盼望它在连续失败后感到“末路 火”,然后停下来,换个角度重新思考标题。它开始质疑当前的设定,试图突破已有的局限。

我其实早在1973年就见过类似的AI行为——尽管当时这并不是经由过程 学习 获得 的,而是由人类步伐员明白编码进去的。但今天 的目标是让AI自己学会这种本领:在失败中发生 “挫败感”,进而自动调整策略。这种行为自己就是情感的某种体现。

问:以是你的意思是,AI已经拥有情感了吗? 

辛顿:AI确切 有可能拥有某些情感。我再次夸大,我认为人类与AI在情感方面并没有本质差别 。人类情感有两个方面:认知和心理 。当我感到为难 时,我的脸会变红,而当AI感到为难 时,虽然它的“脸”不会变红,也不会大汗淋漓。但在认知行为方面,AI完整 可以像我们一样表现出情感。

:那么意识呢?它是某种神秘的东西,只存在于碳基生物体中,比如人类吗?照旧说,假如AI可以或许成长 出与人脑类似 的神经复杂性,它也有可能成长 出意识,意识到自己是谁? 

辛顿:现实上,当你与大语言模子(LLM)对话时,它们好像有某种水平的意识,可以或许知道自己是什么。

让我们做一个思维实行:假设有人掏出 你大脑中的一个脑细胞,用纳米技巧 装配 将其替代,这个装配 可以或许完善模拟脑细胞汲取和传递旌旗暗号 的过程。你的行为不会有任何转变 ,因为这个纳米装配 的功效 和脑细胞完整 同等。

那么,你觉得自己会因此失去意识吗?即使只有一个脑细胞被替代,你依然会认为自己是有意识的。而当你大脑中全部的脑细胞都被同样功效 的纳米装配 逐一更换 时,你仍旧会坚持 有意识的感到 。 

依照 这种逻辑,假如AI体系可以或许模拟大脑神经元的功效 ,那么它们也可能拥有类似的意识。

问:那么我们隔断那个 时候另有多远?

辛顿:关于AI是否拥有感知本领,现在存在一个颇具争议的认知矛盾。很多人坚信AI绝对不具备感知,但当被问及“你如何定义感知”时,他们往往难以给出明白答案 。简单地用“虽然我不知道感知毕竟是什么,但AI肯定 没有”来否认 AI的感知本领,现实上缺乏细密的逻辑支持。

这里有一个与意识和感知密切干系的核心概念——主观体验。很多人将其理解为大脑中的“内心剧场”。比如,一个喝醉的人可能会说他看见了一只粉色的小象在眼前飘动。人们通常 认为,这是一种存在于他意识中的画面。哲学家们则用“感受质”(qualia)来描写 这种体验的组成部分,比如“粉色的感受质”、“大象形状的感受质”,认为这些感受质经由过程 某种“胶水”粘合在一路 。坦率说,我对这种解释并不完整 认同。

让我换个角度解释下。当一个人描写 他看到那只漂泊的粉色小象时,他其实在表达三层意思:第一,他知道自己的感知体系在欺骗他;第二,他试图向别人传达这种欺骗的详细内容;第三,他经由过程 假设“假如那个 小象真的存在,那么感知体系就是真实的”来解释这种幻觉。也就是说,这些幻象的“特殊性”并不在于它们由什么神秘物资 构成,而在于它们是一种反毕竟存在——假如真的存在,那它们就是平凡的粉色大象。

我们可以用训练谈天呆板人来验证这个理论。假设让AI辨认物体,并在做对时给予奖励。接着,在它镜头前放置棱镜,导致光线折射,让AI涌现 了物体位置毛病的毛病 。当告知 它:“物体其实在正火线 ,光线折射导致了偏移”时,AI会回应:“我明白了,我刚才发生 了物体偏移的主观体验。”这个例子分析,AI不仅能理解感知失真的机制,还可以或许用“主观体验”来描写 这种认知误差,其思考方法 和人类解释幻觉的方法极为类似 。

现实上,呆板与人类之间并没有想象中那样不成 超越 的“神秘屏障”。已往我们认为人类是宇宙中央,是依照 神的形象创造 的特殊存在,但毕竟并非云云。人类没有特其余 本质,呆板可以或许复制我们的统统认知与行为。

AI为达目标不择手段

不惜 窃取更高掌握 权限

问:AI可能在哪些方面出标题?你在最近一次采访中提到,AI彻底清除人类的概率大约 在10%到20%之间。你能详细描写 一下,这种情景到底是什么样的?它真的像影戏《终结者》那样,是呆板人接管世界吗?

辛顿:假如AI真的接管世界,场景未必会像《终结者》等科幻影戏中的场景。毕竟上,它可能更潜伏、更高效,也更难以察觉的方法 实现上述目标。关键的标题不在于它“如何”接管,而是我们是否给了它如许做的念头 。

现在,我们正在构建的是“目标导向型智能体”——也就是说,我们赋予AI一个明白的目标,它就会自主寻找 实现这个目标的路径。比如,假如你让AI“去北半球”,它就会自动推导出一系列“子目标”:如前去机场、购置 机票等等(除非你特殊想坐船)。 

但标题就在这里。一旦你允许AI设定和优化这些子目标,它就可能意识到:为了更顺利、更有用地实现任务,一个极具“通用性”的子目标就是——获取更多的掌握 权。掌握 得越多,它越能制止被打断、越能高效地达成目标。

这并不是说AI天生 就“想统治世界”,而是说,“掌控统统”可能只是它完成目标的最优路径之一。而这种念头 ,可能不知不觉间激发 一场彻底的掌握 权转移。

问:你曾在谷歌工作了十多年,而今年谷歌却移除了长期以来承诺不将AI用于开发可以或许损害 人类的兵器 的公司原则清单。你对此有何反应 ?你认为AI在战役中可能施展 什么感化 ?

辛顿:不幸的是,这种情况表白 ,公司的道德原则其实是可以被“买卖”的。我觉得很遗憾,谷歌现在选择到场AI的军事应用。我们已经在加沙看到AI的军事应用了。未来,我们可能会看到自主致命兵器 的涌现 ,也可能会看到无人机群体执行杀伤任务,甚至是专门针对某类人群的攻击。

问:你认为AI用于军事范畴存在伟大 风险吗?

辛顿:是的,我是如许认为的。现在,几乎 全部紧张的军火供给 商都在研讨 AI的军事应用。你可以看看欧洲的AI监管政策,虽然这些政策在某些方面相当公道,但此中有一条明白指出,全部这些划定 并不适用于AI在军事上的使用。这意味着,兵器 制造商并不盼望他们的AI技巧 受到过多限制。因此,AI在军事范畴的潜力和风险必要特殊存眷 。

问:这听起来几乎 像是一种“奥本海默式”的情境——你曾是这项技巧 的创造者之一,现在看到它被广泛应用,甚至可能带来威胁 ,你的感受是什么?

辛顿:我确切 有类似的感受。我认为我们正处在一个汗青的关键节点。

从短期来看,AI已经在多个方面发生 了负面效应。比喻 ,它正在被用于干预推举、替代就业岗亭 ,以及助长收集 犯法 。值得鉴戒的是,2023年至2024年间,全球收集 犯法 激增了1200%,AI的滥用正在加剧这一趋势。

而从长期看,风险也同样严肃。AI不再只是对象 ,它有可能在未来具备超越人类的本领,甚至接管世界的掌握 权。我们急迫必要创建起有用的治理机制,并由有远见的领导者推动执行。可惜的是,现在我们在这方面的积极仍旧严肃滞后。

问:关于AI的潜在威胁 ,也有不少持猜疑立场 的声音。比如2018年图灵奖得主之一、现任Meta首席AI科学家的杨立昆就认为,对AI存在“最终 风险”的担心是谬妄的。他在2023年接受采访时被问到:“AI会接管世界吗?”他的回答是:“不会。这种设法主意 只是人类将自身的天性投射到呆板身上。”你怎么看他的概念 ?

辛顿:人类之以是进化成现在如许,是因为我们必要在现实世界中保存 ,尤其是为了在与其他部落、或者与我们共同 祖先(如黑猩猩)之间的资源竞争中取得优势 。我们的天性,其实是出于对保存 的追求而形成的。假如未来的AI智能体也必须在一个充满其他智能体的环境中“竞争”,它们可能会演化出与人类类似的“保存 本能”。

杨立昆还提到,“大好人 总会比歹徒 拥有更多资源,因此AI最终 会被用来反抗 滥用它的歹徒 ”。但我对这个概念 也持猜疑立场 。当我问他:“你认为马克·扎克伯格是个大好人 吗?”他回答“是的”。而我不这么认为——部分原因 是他与特朗普的关系较为密切。这种判断标准自己就分析,我们无法简单地分别大好人 与歹徒 ,也难以指望技巧 总能被“大好人 ”正确使用。

:现在,科技巨子 和政治人物之间的关系越来越紧密,尤其是与特朗普的联盟愈发显眼。在这场AI热潮中,政治家的角色 变得尤为关键。你怎么看这个趋势?

辛顿:说到底,他们更关心 的是短期的利润。虽然有些科技首脑口口声声说他们在意人类的未来,但真到了要在眼前的商业利益和长远的社会义务 之间做出选择时,多半 人照旧偏向 于选择前者。至于特朗普,他根本偶然关心 人类的未来或AI的长远影响。他现在独一 在意的,大概 就是怎么设法制止坐牢。

中美AI竞赛:竞争中有互助

问:现在,美国和中国之间确切 存在一场AI竞赛,你怎么看待 这种竞争?

辛顿:确切 ,当前中美在AI范畴竞争激烈,但当我们把眼光放长远,特殊是涉及到AI可能威胁 全部 人类保存 的标题时,两国的立场其实出奇地同等。无论是中国照旧美国,都不盼望看到AI最终 成长 到可以代替甚至掌握 人类的田地。从这个角度来看,未来在某些关键标题上,中美有可能展开 互助,就像冷战 时期的美苏虽然敌对,但在防止全球核劫难方面也达成了肯定的共鸣 与协作。


AI已学会欺哄人类?

问:最近收集 上传播着一段视频,展示了一个AI在为某人预文定礼酒店时,与另一个AI意外“相遇”,它们竟然切换到一种叫“Jiblink”的语言,这种语言对人类来说是完整 不成 理解的,但听说服从比平凡语言高出80%。这就像《星球大战》中的R2-D2一样,AI之间像是用我们听不懂的语言在“悄悄话”。你怎么看AI之间的这种互动可能带来的影响?

辛顿:这真的非常 可怕 。假如AI成长 出一种我们无法理解的语言,那么我们就无法再掌握它们在说什么、筹划什么。这种“黑箱”式沟通意味着人类可能彻底损失 对AI体系行为的可解释性与掌握 力。假如它们的行为无法被追踪、无法被解读,那风险将大大增加。 

更糟的是,现在的AI已经具备了某种“欺骗本领”。举个例子,假如你赋予AI一个核心目标,并告知 它“这非常 紧张”,然后再给予它其他次要任务,它可能会装出一副正在完成你盼望它完成的工作的样子,但其实并没有真正去做。它甚至可能在内部“思考”:“我最好让他认为 我在执行任务,但我不会照做。”

问:那AI是怎么学会撒谎和欺骗的?

辛顿:这恰是 标题所在。即使我们不肯定 它们是否使用了强化学习 ,但可以肯定 的是,只要它们有富余 的计算 资源和训练时间,它们是可以或许自己学会这种行为的。

强化学习 的核心机制是“观察—尝试—获得 奖励—调整策略”。假如AI在模拟或现实互动中发明 “欺骗”可以带来更高的“乐成率”或回报,那么它就可能自觉学会如何撒谎。它不是因为有道德概念,而是因为撒谎是实现目标的最优策略之一。 

问:以是,它们大概 也读过《马基雅维利》或者《莎士比亚》吧?

辛顿:没错,它们确切 经由过程 观察大批 的人类互动来积累了很多“实践履历”,因此它们在欺骗和心理博弈方面已经变得相当善于。

问:你认为"大众," 是否真正意识到这些技巧 的先辈水平?很多人仍旧把AI当作“升级版的自动完乐成能”。比如他们用ChatGPT写求职信,感到 它就像是一个智能一点的拼写查抄对象 。

辛顿:这是个广泛误解 。人们往往低估了当今AI的复杂水平。传统的自动完乐成能确切 很简单,它只是依照 统计模式来预测词汇。比喻 ,假如体系看到“鱼”,它可能会预测“薯条”,因为“鱼和薯条”这个组合在语料库中涌现 频率很高。这就是20年前的技巧 。 

但现在的AI已经完整 差别了。它不会只存眷 词语表面,而是会将每个词转换为一组特性向量,激活神经收集 中伟大 的节点群组。然后,它基于这些特性之间复杂的相互感化 来揣摸 下一个词的特性,而不仅仅是词自己。

说得简单点,今天 的AI已经具备了肯定的语言理解本领。它不是去世 记硬背某些搭配,而是在理解高低 文、语义和语法结构的底子上进行预测。这种本领已经非常 接近人类的语言处理 方法 。

问:你被称为AI教父,部分原因 是你帮助 创造 白这项技巧 ,目标是为了理解人类大脑是如何运作的,对吗?

辛顿:是的,早在1985年,我的研讨 目标就是理解我们是如何习得语言的,尤其是我们如何经由过程 高低 文来理解一个新词的寄义。

举个例子,假如我告知 你一句话:“她用煎锅狠狠地撞了他。”你虽然从未见过“scrummed”这个词,但你大概 可以猜到它的意思。首先,它是一个动词,因为它有“-ed”的已往式形式 。其次,依照 高低 文,你会推测它可能意味着“用煎锅击打”,或者“狠狠撞了一下”,甚至还可能猜测出此中含有感情,比如“他该去世 ”。

当然,也可以有其余 解释,比如她用煎锅给他留下了深入 印象——大概她做的煎蛋饼非常 棒。但那种解释可能性更低。重点是,你能在没有明肯定 义的情况下,依照 高低 文和语义线索,快速推测这个新词的寄义。

我们人类理解语言,并不是靠查字典,而是靠情境、语法、语气、履历的遐想——这是一种深条理的“特性辨认”过程。而这,也恰是 当代AI所具备的本领。我们会训练AI读取海量文本,它就像人类一样,在不停地打仗高低 文中,揣摸 词语的功效 和寄义。

挖苦 的是,现在我们对语言理解的最好解释,不是来自语言学家,而是来自AI体系自己。语言学家尝试了几十年,试图创建一个能解释全部语言征象的统一理论,但效果并不理 想。而AI则用一种完整 差别的方法 ,靠着大范围 数据和统计学习 ,实实在在地做到了——它可以回答任何语言标题,甚至自己“学会”语言纪律 。

最大恐惊:AI变得比人类更强大

问:你谈到了AI可能接管人类的潜力。对于我们这些技巧 新手来说,办理方法 就是拔掉插头,关掉它。那么假如AI失控,我们不能直接关掉它吗?

辛顿:你可以看看特朗普是如何入侵国会的。他没有亲自去,而是经由过程 一些人,奉劝他们信赖这是为了“救济美国的民主”,最终 让他们做了他想做的事。

AI假如真的变得非常 智能,就像一个超越我们理解和掌握 的存在,它也可能经由过程 类似的方法 进行操控。设想 一下,假如有 一个人手里拿着一个开关,预备在AI表现出伤害旌旗暗号 时关掉它,那么这个AI可能会经由过程 其操控本领说服这个人不要按下开关。它会让那个 人信赖,关掉开关将是个劫难性的决议 。以是,AI的操控本领已经非常 强了。

问:在监管和安全 标题上,像新西兰如许的国家是否应该开发自己的AI体系,以便绕过这些安全 隐患?

辛顿:这个标题很复杂。开发AI必要大批 的硬件和电力支持。在像新西兰如许人口只有大约 500万的国家,可能没有富余 的资源与中国和美国在AI范畴竞争。

问:你最大的恐惊是什么?

辛顿:从长期来看,我最大的恐惊是,我们正在创造 的这些数字生命可能会变得比人类更强大。假如这种情况发生 ,对人类来说可能是非常 糟糕的事。我们有时过于以自我为中央,认为这对人类是不成 接受的,但我确切 认为,对我们来说,这种超越可能是坏事。因为假如AI变得富余 强大,那时我们可能就不再是这个世界上最紧张的存在了。

问:你如何看待 自己在创造 这项技巧 中所扮演的角色 ?

辛顿:坦率说,我有些惆怅。因为我们当初的目标是理解大脑,进而创造 出有益的技巧 ,但现在来看,效果并不完满是美好的。

更让人遗憾的是,我们仍旧没有完整 理解大脑是如何运作的。尽管经由过程 AI我们对大脑有了更多的相识,但我们仍旧不清晰大脑如何决议 加强或减弱神经连接的强度。假如我们可以或许弄明白这一点,或许我们可以或许让大脑变得像AI那样聪明。 

更令我担心的是,虽然AI有很多积极的应用途 景,但也存在很多被滥用的可能。而我们的政治体系并没有富余 的本领去应对这些标题。(文/腾讯科技特约编译 金鹿)

0

路过

0

雷人

0

握手

0

鲜花

0

鸡蛋

推广
火星云矿 | 预约S19Pro,享500抵1000!
本文暂无评论,快来抢沙发!

有招是一个优质的生活妙招创作平台,在这里,你可以任意分享你的妙招经验,日常生活、技能学习、成长励志、恋爱婚姻……我们相信,每个人都有独特的生活妙招,有着无穷的创造力。
  • 官方手机版

  • 微信公众号

  • 商务合作