《再见智人:技术—政治与后人类境况》
吴冠军 著
北京大学出版社 记者:就在几个月前,多位参与推动人工智能发展的顶级科学家共同发表了一封公开信,呼吁建立更好的“安保措施”,担忧人工智能滥用给整个人类带来严重后果。 吴冠军:面对人工智能开始在智能方面追上人类甚至有所超越,有的人很兴奋,因为觉得这个时代充满可能性;也有很多人倍感焦灼,甚至认为应该限制其发展。人类的智能面对人工智能是如此捉襟见肘,这实在太让人痛苦了。
然而即便我们同意后一种主张,当下的主权国家与全球资本主义的既有格局,使得人工智能的发展像军备竞赛那样无法减速。
去年初,《自然》杂志上有一篇神经科学研究论文,题目叫作《It takes two to think(要二才能思)》。换句话说,从来没有“一个人的”思考,思考结构性地需要“二”——两个智能体。我是《再见智人》的作者,然而我在写作前和写作过程中却是在同大量当代乃至过去时代的思考者进行“对话”,这本书绝不是一个人思考的产物。
思考结构性地需要他者、需要碰撞。今天,我们有了人工智能,这是一个非常棒的时刻,因为与我们对话、共思的同行者又增加了。我现在就经常和ChatGPT一起思考。 人工智能是个“黑箱”“
人类凭借信任跨越猜疑完成了那么多了不起的事,当人工智能出现后,我们有必要重新研究信任问题” 记者:此前,另一封公开信似乎掀起了更大争论。2023年3月,包括马斯克等在内的千名科技人士发表公开信:呼吁暂停训练比GPT-4更强大的AI系统,时间至少是6个月。这种又期待又害怕的矛盾,似乎是各个阶段人们面对迅速生长的人工智能的一种典型情绪。 吴冠军:当年这封公开信是由麻省理工学院的物理学家、计算机科学家泰格马克起草的。现在我们在近两年后回头看,这封信的呼吁是失败的,就连在上面签名的马斯克本人都根本没有停止开发人工智能。
关于这封信,我与泰格马克有过一次讨论。泰格马克呼吁“keeping AI under control(将人工智能置于可控范围内)”。理由源自他提出一种计算机研究的路径——“mechanistic interpretability(机械式的可阐释性)”。因为目前的大模型即便对于开发者而言亦是一个“黑箱”,换言之,我们只知道输入了什么,以及最后的输出,一个特别棒的文本或视频,但研究者对中间的“生成”过程并不全然掌握。
这就带来了一个巨大的风险,因为过程是不透明的,人类就无法参与对生成结果的控制,所以泰格马克由此提出“必须控制”的倡议。
当时我跟他的争论点是:“control(控制)”预设了“power(不管是能源意义上的开关机键,还是政治意义上的权力)”,控制意味着必须握有控制的权力。那么,谁握有这个权力?或者说,当泰格马克说“Let us not to lose control”时,谁是这个“us(我们)”?泰格马克回答“Of course,this ‘us’ is humanity(当然这个控制者是人类)”。那么问题就是,从人类文明史来看,还没有以“整体人类”为主体来做过一件事。
要求严格控制人工智能的科学家们纠结的点在于“人工智能是个黑箱”。然而我们有没有想过,人类本身的智能载体,是一个包含800亿个神经元的神经网络,就今天的脑科学而言,每个人对他人而言都是一个黑箱。我们同样只能看到一个人的输入与输出,这个黑箱中有着怎样的过程,对我们同样是不透明的。
对于人类智能的“黑箱”,我们发明了信任——我把信任称作为智人的一个根基性的智慧,因为它成为社会化生活的基础。用一个极端的例子,在恐怖袭击中,“独狼”式恐怖袭击比团队作案的袭击更难防范,美国不少枪击案的作案者,可能之前就是邻居或同学,毫无征兆。尽管这难以防范,但并没有让人们从此不敢再进入公共场所或校园。