新闻与活动 西湖新闻 湖心讲堂

当我们追求人工智能的时候,我们在追求什么?
湖心讲堂
2024年08月09日
媒体联系 张弛邮箱: media@westlake.edu.cn
电话: +86-(0)571-86886861
公共事务部

“I am, I was.” 这是来自科幻电影Artificial Intelligence(《人工智能》)的经典台词。这部与AI同名的电影的主角是一个名叫大卫的机器小男孩儿,他虽然是一个机器人,但却拥有了人类的情感,在追求爱的过程,他不断探寻人的本性,思考该如何变成一个真实的人。

20多年过去,人工智能的迅猛发展给社会带来了重大的影响,但是人们对于人工智能与人类情感、生命本质与科技伦理的复杂关系的思考不曾停止。

7月14日,人工智能专家,北京通用人工智能研究院院长,北京大学人工智能研究院院长、智能学院院长朱松纯教授,北京大学新闻与传播学院教授、博士生导师胡泳教授做客西湖大学湖心讲堂2024夏季公开课,以“机器进化论”为主题,一同探讨了人工智能的现状、挑战和未来。

   

朱松纯:机器与人工智能的进化之路

什么是通用人工智能?实现AGI的技术路径是什么?跟人类的进化有什么异同?当AGI与人类文明产生冲突时,我们该如何准备?

在湖心讲堂夏季公开课上,人工智能领域专家朱松纯教授,以“机器与人工智能的进化之路”为题展开分享。

朱松纯教授认为,我们正步入一个智能时代,其核心特征在于大量通用智能体的涌现,包括生物人、机器人及数字人。物质的起源、意识的起源,最后到文明的起源,一系列的演化造就了人。而人工智能的发展同样经历了从感知到认知,再到具备自主价值判断的复杂过程。

在这其中,“心”的出现至关重要。朱松纯教授介绍,在中国的传统文化中,“心”的意思是先天的价值判断和对他人、对社会的价值。对于道德的追求,古今中外自古有之。北宋理学家张载曾提出,“为天地立心,为生民立命,为往圣继绝学,为万世开太平”,这是宋明思想家关于道德修养的追求。德国哲学家康德也说过,“有两样东西,愈是经常和持久地思考它们,对它们日久弥新和不断增长之魅力以及崇敬之情就愈加充实着心灵:我头顶的星空,和我心中的道德律”。

朱松纯教授认为,人工智能未来走向的关键也在于此——立心,赋机器以三观,让机器习得和人类一样的“价值观”。

接下来,朱松纯教授介绍了什么是通用人工智能(AGI),“首先它要寻求一个统一的理论框架来解释各种智能现象。第二,它要研发一个通用的智能体。”通用人工智能有三个基本特征部分:一、完成无限任务;二、自主定义任务;三、由价值驱动,不是由数据驱动。

那么,该如何实现AGI?朱教授提出了架构完备与测试环境完备的双重标准,同时,要借鉴中国传统文化的“心”的哲学思想,书写属于中国的原创技术范式,在这一领域掌握话语权。


胡泳:在人工智能中看到自己

在人工智能飞速发展的背景下,我们该如何应对人类文明与人工智能的冲突与融合?人类又该如何找到自己的位置?

伴随着技术的发展,势必引发一系列关于人文的思考。面对这一系列问题,胡泳教授从拟人论展开分享。

当我们跟机器人对话时,往往会期待机器人的回复需要有情感。胡泳教授认为,这是因为人类喜欢拟人化,“我们将类似人类的品质、行为或意图投射到非人类的实体上,对自然现象、抽象概念也拟人化,计算机也不例外。”胡泳教授回顾了技术发展史中的拟人化轨迹。从早期的计算机发展模仿机械装置,到人形机器人的出现,拟人化始终贯穿其中。

诚然,拟人化不仅让机器更易于被人类接受和理解,还促进了人机交互的自然性和舒适性。但是胡泳教授认为,从另一方面来看,人与机器之间在多个方面存在许多差异,过度拟人化或许是人类中心主义的体现。

1950年,人工智能之父图灵曾提出:“机器能思考吗?”这是拟人论中最核心的东西,即大脑的计算隐喻,既把大脑比喻成一台计算机。如果机器能思考,当人工智能比人类更聪明时,人类将何去何从?

作为衡量AI智能水平的重要标准,图灵测试一方面推动了AI在自然语言处理等领域的发展;但同时,它也促使人们反思是否应该仅仅以计算术语来定义智能。

胡泳教授认为,在算法霸权时代,对计算取代判断或人类环境和社会被工具理性所窄化的批判变得前所未有的紧迫。“那些相信人工智能会有更好的计算和决策来代替判断的人,可能会因高估人工智能系统的智力而将自己带入危险的境地。”

人类既无法消除自身的模糊性,也无法消除周围环境的偶然性,因此计算对于解释心智和意识非常重要。但是,心智过程不可以被等同于计算。人工智能,终究只有在有意义的生活当中才能行之成理。


对话:人工智能的挑战与未来

人工智能相当于人类几岁的水平?人工智能能“保存”人记忆吗?在最后的对话环节,西湖大学校长施一公教授、西湖大学自然语言处理实验室PI张岳与两位主讲嘉宾围绕人工智能展开对话和讨论。


现在距离通用人工智能的奇点降临还有多久?如果通用人工智能相当于人类18岁的水平,那现在的人工智能大概相当于人类几岁的水平?

朱松纯:到底什么是人的智力水平?大家没有一个共识的定义。从行为空间上看,我们发现人有很多功能机器是不具备的。三四岁的小孩能很快学习一些基本行为,我们以前认为这些都不是很强的智能,但是当去复制的时候才发现这是真正的智能,所以我们有一个通用人工智能的测试标准“Tong Test”,把小孩跟它进行对比测试,这是第一点。

第二,在行为空间上通过了,但你可能怀疑它还不是智能,比如人工智能现在它能做分数加减法,结果你发现以前5位数之内的加减法它会做,五位数以后的加减法不会做了,因为这个题它没有见过。

基于这个假设,行为空间我都完备了,我认为目前(通用人工智能)达到了3、4岁小孩的水平。如果达到3、4岁,那什么时候达到18岁?现在唯一的一个局限,可能是物理的局限,就是材料的局限,我们怎样将数字人快速地做成一个物理的人,到物理空间上来。

胡泳:我觉得考量这个东西不能够单纯考量人工智能目前的认知能力或计算能力的提升,还要考量别的东西,比如人工智能到底要不要有身体?一个纯人工智能系统可能会说身体不重要,有大脑就行了,但是难道人类所有的智力都是由大脑决定吗?

第二个要考虑环境问题,要考虑到在另一个世界中,周围的环境是否能被复制过去,包括社会关系,甚至包括亲子关系,如果能把环境完美复制,才可以实现真正的通用人工智能。所以,如果解决身体问题、环境问题,我个人觉得还是有很多挑战的。


前不久得知胡泳老师一直在照顾患有阿尔茨海默症的母亲,感触很深。胡老师说母亲有时候还能想起来自己是谁,有时候又会把自己错认了,问他冷不冷、饿不饿。听了让人感觉既温暖又难过。想问各位老师,您觉得未来人工智能的发展,可以"保存"人类的记忆吗?   

胡泳:今天早上起来照镜子,你会问自己,这是我吗?这个自己在多大程度上是昨天的自己,或者是前天的,或者拉得更长?是什么东西导致五年以后、十年以后的你还是你?这是自我同一性问题。

我们清楚细胞在死亡,器官在老化,为什么我们会认为昨天的你还是今天的你?是因为你有心理的一致性,所有的记忆都在。

但由于我照顾母亲,我对这个东西产生了很深的怀疑。我的母亲对我的所有记忆都丧失了,不记得我是谁,尽管我们曾经如此亲密,但是也不能说她不是我妈,因为她明显是我妈,所以在意识一致性背后一定有一个东西,叫身体一致性。这个身体一致性导致你认为她还是你妈妈。这其实就相当于我们需要重新来思考,到底什么东西构成了人最本质的那个东西。

如果按照我以前的理解,我就觉得本质的东西肯定就是大脑,是意识,是记忆,但我现在对此产生怀疑,我觉得记忆也很重要,意识也很重要,大脑也很重要,但我觉得身体同样重要。

朱松纯:刚才胡老师讲的,到底什么是我?我是谁?到底是因为我的记忆定义了我,还是身体定义了我?

按照我们的数学理论,人就是在空间上的一个点,随着人在不断的进化过程当中,有可能退化了,一个能力突然没有了,或是你失去了一个价值体系,人其实最后在这个空间当中是在不断漂移的这么一个过程。

施一公:阿尔茨海默症特别普遍。世界上85岁的老人,大约47%患有此病,到了90岁的时候超过50%,所以这也是一个跟年龄相关的疾病,这个病不是大脑萎缩或是脑子里出现一些简单的问题,而是大脑变得残缺不齐,颅内因为神经元消失而出现空腔,这是很痛苦的疾病,到本世纪中叶,全球预计有1.3亿人患阿尔茨海默症。

大家想象一下,就是把你大脑里想象的事情,所有的记忆能写出来,读在一个片子上永久保存,如果有一天技术的进步可以让人有效地读取书写大脑信息的时候,我觉得这是一种非常不可思议的想象。现在我们对信息的获取及对大脑的理解依然是非常粗浅的,我们对学习记忆究竟怎么完成也还不清楚,所以这样的想法是一种想象,这个问题是未来的问题,世界会怎么演绎,这个问题目前没有答案。


现在主流的机器学习架构都会给模型设定一个目标,可是我们人类学习似乎没有明确的目标的,设计一个没有目标的模型是否重要?或者说,大语言模型都是通过预测下一个单词来进行训练的,那么通过这种方式能不能实现AGI?

朱松纯:人类学习的过程当中肯定有大量目标,哪些东西选择学,哪些东西选择不学,并不是说人类学习时没有明确的目标,我们的目标性特别强。

如果这个模型没有目标,它其实就没有驱动力了,没有驱动它不知道哪些东西该学,哪些东西不该学。模型的训练只有一个单一的目标,就是为了答题,跟人的价值体系是差很远的,这是我认为人工智能和人类最大的差距。

第二个问题,单纯通过预测下一个单词是否可以实现AGI?从理论上讲这没有毛病,如果你能永远预测下一个单词,那我就可以重复你。

但是其实你根本预测不了,因为这背后有大量的不在数据中能够存在的东西,现在AGI就希望通过重复大量的数据,将这个行为在行为的空间上进行重现。但是在这个行为的背后有很多种意思,这是在数据当中看不见的暗物质,且无法标注,且这需要大量的算力和数据,这个数量级太大。真正的智能最后不是数据驱动,而是用价值来驱动。


随着机器的智慧进化,我们如何界定它们的权利和责任?例如自动驾驶的车辆如果发生事故,责任应该归谁?比如到底是汽车的厂商还是设计算法还是汽车本身,随着人工智能能力的增强,怎么赋予机器权利,比如隐私权、自己决策的权利。

胡泳:这是一个很有挑战的问题,因为我们现在马上就面临着这个事情,比如自动驾驶出租车。

一些司机反对自动驾驶主要理由是它太守规矩,导致发生不必要的拥堵,因为该左转弯时它特别谨慎,也不超车,不会酒驾,也没情绪,但自动驾驶出租车的安全性远超人类司机。

但问题在哪里?它不能出任何一起事故,因为它一旦出了一起事故,背后就会马上质疑为什么要让人工智能在大街上跑?你会对人工智能出错的事情格外敏感。如果出了事,这个责任是谁的?如果我们用机器人给人动手术,出了医疗事故,这个事算谁的?通过大数据决定了一些人类社会非常重要的决策,一旦这个决策失误了,这个责任又是谁的?

其实动物有动物的智能,机器有机器的智能,我觉得如果按照这种推理,机器一定是有权利的,只不过这个对新的法学、新的社会学、新的政治学提出很大的挑战,我们正在过渡过程当中。这些东西给我们的社会提出的挑战是,我们如何适应一个机器人、虚拟人以及生物人都共同存在的这么一个世界,在政治学、法学、社会学、伦理学上有大量的事情要做。