点击蓝字
关注我们
姚期智
图灵奖得主、中国科学院院士、清华大学人工智能学院院长、人工智能国际治理研究院学术委员会主席
2025年7月26日下午,中国人工智能发展与安全研究网络在上海世博中心金厅A成功举办“人工智能发展与安全”全体会议。会议邀请诺贝尔和图灵奖得主、多伦多大学教授杰弗里·辛顿与图灵奖得主、清华大学交叉信息研究院、人工智能学院院长姚期智进行了一场高端对谈。他们重点围绕人工智能与神经科学、人工智能的“自我意识”、量子计算对人工智能发展的影响等前沿话题展开深度讨论。他们谈到,人工智能与合成生物学一样,都是在创造“新的生命”,当前人工智能已经初步展现出很强的理解能力甚至“自我意识”,人们应该抛弃只有人类存在“意识”的固有思维。辛顿尤其强调,如何训练对人类保持善意的人工智能,确保“智能向善”是人类必须关注和解决的重要问题。以下是对话精华实录(有删改):
姚期智:
杰弗里,能有这个机会与你进行这样一场深入的对话,对我来说真的是莫大的荣幸和快乐。
你今天早上的演讲非常鼓舞人心。我听到不少人跟我说,他们和我一样深受启发,收获良多。所以我想在这次对话中,首先就继续讨论一下神经网络的话题。正如你今天早上提到的,你是神经网络领域的先驱,并且实际上是用神经网络构建了所谓的“小语言模型”,这个模型最终演变成了正在改变我们生活的“大语言模型”。所以我觉得我们大家都应该对你心怀感激。那么我可以代表在座各位,为杰弗里·辛顿鼓掌吗?
接下来我会向辛顿教授提一些问题,而在下半场他也会“回敬”我一些问题。那么,杰弗里,我先来问几个技术问题,关于脑科学和神经网络之间的关系。我的问题是,神经网络最早其实就是受到神经系统的启发,在某种意义上是模仿大脑而来的。而现在我们已经打造出如此惊人的计算架构,在某些方面似乎已经超越了人脑。那么问题是,我们是否还能从脑科学,或者更正式地说,是神经科学中继续学习到新的东西?
杰弗里·辛顿:
你说得完全正确,如果没有对人脑的模拟,人们当初可能根本不会尝试让神经网络发挥作用。我们之所以相信这样的系统一定能奏效,是因为人脑就以某种方式运作着。所以,让一张由简单单元构成的网络通过调整连接强度来学习的整个理念,其实就是来源于大脑的运作方式。
现在的问题是:我们是否已经进入一个阶段,人工智能可以独立发展,不再需要从大脑获得灵感?我认为大致上是的。粗略地说,人工智能已经从人脑那里汲取了大量灵感,现在可能不再需要太多新的借鉴。但这并不完全正确。我认为在某些特定方面,我们目前的人工智能模型仍需改进,而且大脑在这些方面可以给予我们很大的启发。
其中一个关键问题就是时间尺度的多样性。在我们所有的人工智能模型中,都只有两种时间尺度:一种是神经网络中权重的慢速变化,另一种是神经元活动的快速变化。也就是说,当你更换输入时,所有神经元的激活状态都会立即改变,但权重仍然保持不变,仅在长期训练中缓慢调整。
然而,在真实的人脑中,神经元之间的连接——也就是突触——是在多个时间尺度上发生变化的。很长一段时间以来,我一直建议在神经网络中引入三种时间尺度:一是我们已经熟知的、缓慢变化的权重;二是快速变化的权重,它们能够迅速调整,也会迅速衰减。这类快速权重能够为神经网络提供一种容量很大的短期记忆。
不过,人们之所以很少采用这种方法,是有原因的。我和伊尔亚·苏茨克维(Ilya Sutskever)在2010年就尝试过这样做,而且的确有效。但在现有的计算硬件上,如果每一个训练样本都需要不同的一组快速权重来更新,而最终使用的“真实”权重是慢权重与快权重的总和——那每个训练样本就都需要一个独特的权重矩阵。
这意味着你无法像现在那样,使用一个统一的矩阵来处理多个样本的矩阵-矩阵乘法操作,而只能做效率较低的向量-矩阵乘法。正是出于这个技术性原因,大多数人都没有进一步研究多时间尺度的神经网络。但从长远来看,我认为我们最终还是会在神经网络中引入多种时间尺度——这方面,正是我们还未完全从大脑中吸取的灵感。
姚期智:
我理解,目前还没有人基于这种方法,成功地做出比现有大型语言模型更好的成果,对吧?
杰弗里·辛顿:
是的,因为目前的计算硬件还无法高效地实现这种结构。
姚期智:
我觉得这真的太了不起了,这是我第一次听到这个观点。对我而言,这是一个非常新颖且原创的想法。我觉得对在场的年轻科研人员来说,如果我是你们,我现在就回去开始动手尝试,思考不同的方式去实现这种多时间尺度机制。
因为这可能正是孕育“下一代语言模型”的时机。在我看来,这正体现了科学的本质。科学的革命从不会重复前一次的路径——如果你只是试图复制上一次成功的方法,往往会以失败告终。
真正的突破应当来自对全新路径的探索。我们该如何在小规模上克服这个难题,并做出原型?其实也不需要庞大的模拟系统。我觉得杰弗里的成功经验正说明了一点:当你是一位真正伟大的科学家时,完全可以从一个很小的系统出发,哪怕不像物理学那样“在信封背后推导出公式”,也可以用一个小模型来验证核心效应。你甚至可以直接去找 DeepSeek说,“我们能不能把这个扩大规模?”
杰弗里·辛顿:
是的,我完全同意这种研究方法。
姚期智:
不过,问题是我们很难真正理解如何从大脑的生物结构中获益。当然,这也是有原因的,因为我们没法像研究大型语言模型那样轻松地对人脑做实验。
杰弗里·辛顿:
对。
姚期智:
所以我在想,也许现在正是一个反思的时刻——也许脑科学也可以从大型语言模型中学到一些东西。因为正如我刚才说的,生物学家面临一个非常困难的问题——他们很难获得数据。如果他们选择在猴子身上做实验,我个人都会犹豫不决。
因此,也许语言模型可以为我们提供一些关于大脑运作机制的线索。基于这个思路,我想请教你第二个问题:你是否认为,在人脑中,也存在一种类似Transformer的结构?
杰弗里·辛顿:
我想先回应你刚才讲的第一部分。我认为,毫无疑问,在过去几十年间,人工智能,特别是大型语言模型的不断演进,已经开始反过来影响神经科学。在人工智能取得重大突破之前,神经科学家并不清楚一种叫“随机梯度下降”的学习技术是否真的可行——也就是只要算出梯度,然后沿着梯度下降,这种方法是否真能在大型网络中奏效。
过去在符号主义学派的历史中,很多人坚信这种方法不可能成功。他们认为你不可能从随机初始化的权重出发,仅靠梯度下降就获得有意义的结果。这个观点在当时是合理的——只是后来被证明是错的。大型语言模型已经证明,在非常庞大的系统中,沿着梯度学习是极其有效的。所以这对神经科学是一个重要的启示。
关于Transformer模型的问题,乍一看,Transformer似乎完全无法对应到大脑结构中,因为Transformer是通过神经活动来“记住”许多前面的词语表示。这些表示被保存在多层神经网络的活动中。也就是说,在处理当前词时,Transformer会将之前所有词语的神经活动一起考虑进去。
但这在大脑中是完全不可能实现的。你没有那么多神经元,也不可能保留所有过往词语的神经活动模式。你必须以某种方式处理先前的词语,但又无法以神经活动的形式保留下来。
而这正是“快速权重”(fast weights)发挥作用的地方。我们需要一个系统,能够不再以神经活动模式的形式存储前面词语的表示,而是将其暂时地编码为联想记忆中的权重变化。这样你就可以调用这些信息:你输入当前词和它出现的时间,把它们作为联想记忆的输入,输出的就是先前词语的表示,并按其与当前词的相似度加权。这种方式可以实现一种非常粗略的“Transformer”机制,虽然不完全一样,但用快速权重可以做到非常类似的效果。
这也是我为什么至今仍对快速权重感兴趣的原因之一——我认为那可能是唯一一种可以让大脑实现类似Transformer功能的方式。
姚期智:
这么说的话,你其实假定了尽管大脑和大型语言模型在结构上不同,它也使用了类似“词嵌入”的机制。那么,现在有没有一些确凿的证据表明大脑确实以这种方式工作?
杰弗里·辛顿:
我认为有的。很早以前——我记不清具体是哪年了,大概是2009年吧——有人做过一项研究:通过磁共振成像采集大脑中的信息,尝试判断一个人当时脑中正在想的词。这项实验成功了。也就是说,大脑中每个词的表征是一个神经活动模式,通过观察这些活动模式,我们大致可以猜出那是什么词。这说明得很清楚:大脑确实是通过在许多神经元上的活动模式来表征词语的。
姚期智:
我明白了。你的前面一段解释,其实说明了大脑在处理词向量的时间序列时,有某种机制能够追踪这些变化,而且能够以某种方式将这些信息压缩,只是我们还未完全理解。
杰弗里·辛顿:
是的。它可能会对非常长的上下文进行压缩,在这个过程中可能会丢失一部分信息,但不会彻底忽略很久以前的词。那些词的表示仍然以“快速权重”的形式保存在系统中。
2016年有一篇论文就是讲这个的,第一作者是Jimmy Ba(吉米·巴)。我不确定他的中文名字怎么发音。
姚期智:
那是你的论文吗?
杰弗里·辛顿:
我是他的导师,我们一起做的。他完成了所有编程。这篇论文是在Transformer提出前不久发表的,时间是2016年。它展示了如何用快速权重来实现类似Transformer的机制。论文的标题大概是《使用快速权重机制关注最近的过去》(Using Fast Weights to Attend to the Recent Past)。
姚期智:
接下来我想转向一些更哲学性的问题。杰弗里,我不知道你是否知道,Alan Turin的中文翻译是“图灵”,这个词在中文里还有“启发、灵感”的意思。我觉得这和你刚才的描述很契合,因为图灵当年也探讨过类似神经网络的概念。
我想基于这个点,提出一个问题。在你今天早上的演讲中,有一个重要观点让我印象深刻:你认为,说“大型语言模型理解它所说的句子”是一个合理的说法。你能详细解释一下你的想法吗?
杰弗里·辛顿:
我可以讲一个故事。我人生中第一次在争论中输给我女儿,是在她四岁那年。她走下楼梯对我说:“爸爸,你知道鹦鹉会说话吗?”我说:“不,鹦鹉不会说话。它们只是模仿人类说话的声音,但它们并不理解那些词的含义。”她说:“不,你错了爸爸,它们会说话!”我又说:“不,它们不懂那些词是什么意思。”她坚持说:“是的,它们会说话。我刚刚看了一个节目,里面那个女人给鹦鹉看了一辆车,鹦鹉就说‘车’。”所以,我输给了我四岁的女儿一场辩论。
我觉得现在的语言学家们也处在类似的境地。语言学家的第一反应是:“哦,这些东西不会说话,它们并不理解自己说的内容,这些东西只是用来预测下一个词的统计把戏,它们没有真正的理解力。”
但这种说法是有问题的。第一个问题是:如果你真的想精准预测下一个词,尤其是在回答问题时给出的第一个词,那你就必须理解问题的内容。所以这其实是一件很有趣也很有启发性的事情——单单通过训练模型去预测下一个词,你就不得不让系统去理解输入的含义。
语言学家对这种说法有很多抵触。即使现在,仍有语言学家坚持认为这些模型毫无理解能力。但现实是,现在只要有人实际使用过大型语言模型,就很难相信它们不懂你在说什么。它们显然是“懂”的。
我最有说服力的例子是这样的:
假设我对一个语言模型说:“我看到大峡谷飞向芝加哥。”模型说:“这不对吧,大峡谷太大了,不可能飞。”
我接着解释说:“不,我的意思是我在飞往芝加哥的途中,看到了大峡谷。”
然后模型回应:“明白了,我刚才理解错了。”
那么,如果模型可以“误解”,那它平时到底是在做什么?
姚期智:
这个现象,其实连小型语言模型也可以做到吧?
杰弗里·辛顿:
不是那种“小型模型”。我曾经训练过一个极小的语言模型。我告诉你有多小:词嵌入的维度是6个神经元;整个网络的权重数量大概是1000个;训练样本是106个。真的非常小。
姚期智:
顺着这个思路,我在想:我们现在所用的那些多模态聊天机器人,它们不仅能“理解”,可能还能做得更多,对吗?
杰弗里·辛顿:
是的。我认为这是一个很重要的问题,我今天上午演讲时其实还没有提到:这些多模态聊天机器人,它们是有感知的吗?不同的人会用不同的方式表达这个问题:有人问它们是否“有感知”(sentient),也有人说是否“有意识”(conscious),还有人说它们是否“有主观体验”(subjective experience)。
那么我们来讨论“主观体验”这个问题。在我们这个文化中——至少在我的文化中——大多数人认为我们有一个称作“心灵的内在剧场”(inner theatre)的东西,所有的体验都发生在这个只有我自己能看到的内在剧场里。比如说,如果我喝醉了,对你说我看到有一些粉红色的小象在我面前漂浮,大多数西方人会理解为:在我心灵的内在剧场里,有一些粉红色的小象在飘来飘去。如果你问,这些小象是什么构成的?哲学家会告诉你,它们是由“感质”(qualia)构成的:粉红色的感质、小象的感质、漂浮的感质、不太大的感质、正在的感质,最后用某种“胶水感质”粘合在一起。光从我这个说法你就能听出来,我其实并不认同这种理论。
还有一种完全不同的理论,来自像丹尼尔·丹尼特这样的哲学家:他们认为根本就没有什么“内在剧场”这个东西。当你在谈论“主观体验”时,你并不是在谈论某种只有你自己才能看到的私密心灵事件,而是在尝试向他人解释你的感知系统是如何出错的。
我刚才说的“我有粉红色小象在我面前漂浮的主观体验”,其实我完全可以不用“主观体验”这个词来表达它,比如我可以说:“我的感知系统欺骗了我。”但如果现实中真的有粉红色小象在我面前漂浮,那么我的感知系统就是真的没有撒谎。所以,当我们谈论“主观体验”时,我们其实是在向别人描述一个感知错误的状态,同时用一个假设性的世界状态去传达这种错觉。所以,这些小象并不是由某种神秘的“感质”构成的,而是假设性存在的真实粉红色小象,它们是“现实的”,只不过是“假设性的现实”。
那么我们把这个情况套用到一个聊天机器人上。假设我有一个多模态聊天机器人,它能说话、能指东西,还有一台摄像头。我对它进行训练,我在它面前放一个物体,说“指一下这个物体”,它就会准确地指到物体所在的位置。接着,我在它摄像头前放一块棱镜,让它的感知系统发生扭曲。现在我再放一个物体在它面前,说“指一下这个物体”,它却指偏了。我说:“不,那不是物体的位置,物体就在你正前方。只是我在你的镜头前放了块棱镜。”如果这个时候,机器人说:“哦,我明白了,是棱镜折射了光线,所以我看到的位置错了。我当时的主观体验是物体在那里。”——如果聊天机器人这么说了,它使用“主观体验”这个词的方式就与我们人类完全一样。
这就是我认为当前的多模态聊天机器人在感知系统出现偏差时,确实具备“主观体验”的原因。而当它们的感知系统没有出错时,那就是“客观体验”,此时我们甚至不会去使用“体验”这个词。
姚期智:
我觉得你这个解释对我来说非常有说服力。我同意你的观点,从科学的角度来看,“理解”本质上就是一种行为表现。那么我想问一个问题,哲学家们听到你这样的说法时,可能会跳起来反驳得非常激烈。
杰弗里·辛顿:
那就是哲学家们一贯的做法(笑)。
姚期智:
是的(笑)。但如果我们仅从科学家的角度来看,这些问题的答案真的重要吗?因为做科学、研究人工智能,最终是要设计算法。如果我们完全把这些哲学问题从科学讨论中剔除,似乎并不会增加或减少什么,这种理解对吗?
杰弗里·辛顿:
我认为在政治层面上,这些问题非常重要。因为很多人没有足够地警惕“超级智能”,原因就在于他们仍然相信人类有某种特殊的东西——比如主观体验、感知能力或意识——而这些系统是永远无法拥有的。他们觉得我们是特殊的,我们拥有某种神秘的成分,而人工智能没有,所以我们是安全的。
我认为这种想法是无稽之谈,而且是危险的无稽之谈。它让人产生自满情绪。
姚期智:
我们现在差不多要结束第一部分了。但我还有一个我非常想知道的问题:杰弗里,你心中认为人工智能领域目前最重要但尚未解决的问题是什么?
杰弗里·辛顿:
我认为最重要但尚未解决的问题是:我们如何训练出一个最终会成为“善意的”(benevolent)人工智能。我们需要找到一种方法来训练它们,使它们不会有接管一切的欲望。但现在没有人知道该怎么做。
我怀疑这与养育一个孩子非常相似。当你养孩子的时候,你可以给他定规则,但规则的作用非常有限。你可以用奖惩制度来教育他,这种方法有一些作用。但最有效的方式是通过示范。当父母展现出良好的行为时,孩子通常也会成长为一个有道德的人。
所以我认为我们应该用经过高度精选的数据来“养育”人工智能。在它学习的早期阶段,只接触到善良的、良好行为的样本。我们把人类的坏行为都留到它已经学会什么是“好行为”之后再展示给它看。
姚期智:
如果这个方法奏效,它确实可以解决未来人工智能发展的很多问题。但我想进一步追问,因为我认为要训练出一个“绝对善意”的系统,远比表面上看起来要困难得多。
杰弗里·辛顿:
目前我们确实不知道怎么做到这一点。
姚期智:
我甚至怀疑,从理论上讲,可能是可以证明这事“根本不可能”。我不确定,但我同意你说的,这是人工智能领域中最重大的未解之谜之一。所以我们需要从正面和负面两方面去考虑所有的可能性。
我也想说一说我对此的想法,算是对你观点的一种回应。我相信这个世界上有好人也有坏人,但实际上,好人在某些特定的情境下也可能变坏。也就是说,“善意”本身是依赖于情境的。如果你在一个很恶劣的环境中长大,那你想按照我们常识中的“好人标准”去做事就非常困难。
所以我的担忧是,就像养育一个孩子一样——如果他生活在一个富裕的家庭,在一个很好的社区,他可能会变成一个温文尔雅的人,说不定还能拿个诺贝尔奖。但如果他在战场上,面对极端压力,他的表现可能就完全不同了。
很多哲学家其实也是在表达这个观点:在极端情境下,必须要做价值判断,而人工智能系统如果没有接受过类似情境的训练,是无法作出这种判断的。
所以,如果我们真的要训练出“善良”的机器人,我们就必须在各种不同的情境下对它进行测试。比如,如果一个机器人在巨大压力下会选择被终结,而不是做出错误选择,它可能会变得非常冷酷无情。所以,我的观点是:要实现你说的那种理想目标,我们首先需要“改造”人类社会。只有当这个世界普遍以“善”为核心,没有人被迫在极端压力下做出道德上的让步时,我们才能以这种方式训练机器人,最终实现一种美好的局面。
但这一切都有个前提:如果而且仅如果我们人类能够实现这种理想状态。否则,我不认为我们可以阻止那些恶意的人去制造具有攻击性的机器人,然后反过来毁掉所有“善良”的机器人。
杰弗里·辛顿:
是的,我们已经聊了很多,时间差不多了。
姚期智:
这场对话的问题虽然是开放的,但我相信大家都很想继续听你说下去。
杰弗里·辛顿:
我们长期以来一直在努力让人类社会运转良好。联合国并没有如最初设想的那样运作,它的权力远不如人们当初期望的那样。我不认为我们能够及时实现对人类社会的改革。我们不可能足够快地改变人类社会,以应对即将到来的超级人工智能的威胁。
不过,也有另一种可能的答案,听起来有点像硅谷的思路:假设我们能够构建出一个“基本上是善意的”人工智能,然后这个人工智能又能设计出一个更善意的人工智能。也许,要真正解决如何构建善意人工智能的问题,我们需要一个比我们聪明得多的人工智能来完成这件事。因此,也许我们可以通过递归的方式,使人工智能变得越来越善意。这有点类似于机器学习中的“提升法”(boosting),我们从一个弱学习器开始,把它变成强学习器。这是可能的一条路径。但正如我所说,目前我们还不知道该怎么做。我只是觉得,把“先改造人类社会”作为解决方案之一,并不现实。
姚期智:
是的,我能在某种情形下看到一线希望。也就是说,如果通用人工智能(AGI)的发展是逐步进行的,而不是一夜之间就掌控了人类,那么当人工智能即将接管世界的迹象变得非常明显时,人类就会被“绑”到一条船上。这种情况下,我相信人类是有可能觉醒的,就像是遭遇了火星人入侵一样。那时,人类可能会真正意识到自己的局限。
我认为,我们人类其实太过自负了,认为什么都可以掌控,但宇宙本身并不总是那么仁慈。我们掌握了量子、核能和生物合成的“秘密知识”,这不是免费的,它带来了潜在的巨大危险。我们人类应该学会珍惜自己的好运气——能够走到今天,是一个奇迹。我们应该珍视这几百年来的聪明思想和深刻洞见,也应该彼此更加善待。
杰弗里·辛顿:
我完全同意你说的。
姚期智:
现在轮到你提问了。
杰弗里·辛顿:
你懂很多物理,而我几乎不懂,虽然从外表上看不出来。所以我有几个关于量子计算的问题。我之前成功地掩饰了自己不懂物理这一事实(笑)。我想问的是,大多数物理理论在极端条件下都会失效。例如,牛顿力学曾被广泛认为是非常准确的,但后来我们发现它在高速条件下并不适用,这时候就需要一个更复杂的理论。你觉得,有没有可能我们对量子力学的理解在某些条件下也会失效?比如说,是否可能在某些情况下,我们无法维持复杂的纠缠态?量子计算依赖于完美维持这些纠缠态。也许在某些情况下,如果纠缠并不那么完美,量子计算最终就无法真正发挥作用。你觉得有没有这种可能性?
姚期智:
根据正统的量子理论,量子力学应该不受系统规模的限制——也就是说,不论有多少量子比特发生纠缠,它都应该是成立的。但在实践中,我的物理学朋友告诉我,现在物理学家们能够实现的“深度纠缠”粒子数量最多大概是60个左右。我们距离理想中的量子计算还相差甚远。
从这个意义上说,这是一个尚未解答的问题。不过,从物理学家或自然科学家的角度来说,如果你现在有一个好理论,就不要轻易去动摇它,除非出现了实验证据来反驳它。我记得在量子计算的早期,你可能知道,1982年费曼发表了一篇很有影响力的论文。到了1990年代早期,计算机科学家开始介入。我有几位非常杰出的理论计算机科学家朋友,他们当时对量子因式分解算法是否可行持怀疑态度,因为在实验室中,物理学家尚无法真正实现它。
当然,也存在某些自然系统中,纠缠的确可能是“无限”的。例如,在玻色–爱因斯坦凝聚态中,中性原子这类粒子有点像“朋友”,它们喜欢挤在一起。当它们足够接近时,就变得无法区分,这会带来自然形成的纠缠状态,这是一种“完全纠缠”。但对于我们希望用于计算的系统来说,我们又不希望这些粒子互相“搞混”。
所以我认为这个问题目前仍未有定论。而我那几位对这个问题感兴趣的朋友,其实内心是想拿诺贝尔奖的。他们的想法是,如果计算机科学家设计了量子算法,而物理学家实现后发现结果并不对,那计算机科学家就等于是把量子理论推向了一个“天堂边界”。但现在来看,我所有从事量子计算的物理学家朋友,都完全无视这种失败的可能性。在他们看来,量子力学就像“圣经”一样,是不可动摇的。
杰弗里·辛顿:
第二个问题是,我们假设量子计算真的能够成功运作。你认为这项技术会更加实用吗?在未来十到十五年里,你认为是量子计算会对人工智能产生重大影响,还是人工智能的进展仍将主要依赖经典计算?
姚期智:
我认为这是一个非常有趣的问题,它实际上也是人工智能和量子计算这两个领域共同面临的前沿问题。因为量子计算的力量来源于一种与人工智能所依赖能力垂直的计算能力。因此,一个很自然的问题是:就目前我们所了解的世界而言,人工智能在量子条件下构建,是否才能实现终极的计算能力。换句话说,就是使用量子计算机来进行学习。从原理上说,我们应该能够得到比现在更好的结果,因为量子确实能够做到一些人工智能无法实现的事情。比如说对大整数的因式分解,这是人工智能领域里极少有人涉足的能力。换句话说,其实我们不应该把人工智能总想得那么“超级智能”,因为它并不是全能的。它并不能做一切事情。所以,我们也不必过度惧怕人工智能,因为有些事情我们人类可以做到,而再聪明的机器也未必能做到。
杰弗里·辛顿:
好的,我再问一个跟量子计算无关的问题。有些人认为,我们现在正在做的人工智能研究,其实是在创造“外星生命”——它们在某种意义上真的是“生命”。我听你说过,如果我们真的在做这件事,那我们就需要一门研究这些外星生命的“心理学”。你能否进一步阐述这个观点?
姚期智:
是的,我认为我们确实正在创造“外星人”。这和合成生物学家的工作非常相似。许多合成生物学家都在探索如何通过无生命的化学分子来创造出有生命的存在。而我们现在所做的,是用另一种方式来构造“外星生命”。你今天早上提到过,这些超级智能的机器,它们确实就是外星人。它们也许外表看起来像是可爱的虎崽,但其实并不是。所以我的观点是,虽然我们可以一致认为,如果我们把“意识”或者“理解”这样的概念从科学词汇中剔除,科学研究本身并不会受到影响,但在构造机器,并且尝试约束它们使其更加“善意”时,引入这些概念其实是有意义的。
正因如此,我确实相信,在某个时间点,人工智能研究会自然衍生出一个独立的学科——那就是“机器心理学”。这个领域非常有趣,因为“机器心理学”与普通心理学之间的关系可以这样理解:目前我们仍然没有通用人工智能,所以我们还有很多地方需要向人类学习。现在所有的智能机器,其前提都是由人类设计者赋予其高层结构。人工智能本质上是一种能力,一种能够在大量可能性中进行智能搜索的能力——有时这种搜索过程我们甚至无法理解,更无法证明。
假设我不去担心安全问题,只是一心想设计出最聪明的机器,并希望它们保持善意,那么我现在最好的引导者依然是人类。我们雇佣聪明的人类去思考如何设计出理想的系统结构。在这个阶段,我们可以将人类心理学作为初步分类和测试机器的参考。但我相信,再过一段时间,机器的心理将会变得远比人类复杂得多。它们在欺骗方面可能比我们人类中最狡猾的个体还要高明。
等到它们真正变得那样聪明之后,如果我们想要研究它们的心理学,那恐怕就得由它们自己来建立研究机构,并由其中一台机器担任院长。它们现在对我们还算友好,也许我们不应该太过滥用它们的“礼貌”。
杰弗里·辛顿:
非常感谢你。
编译|胡博翔 劳雨涵 吴宗泽
审核|梁正 鲁俊群
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG