三年了,大模型热潮一点没有退却,通用人工智能(AGI)的曙光似乎已在地平线上闪现,各大科技巨头间的竞赛日趋白热化,从文本到视频,多模态大模型的进化速度令人既兴奋又不安。世界一方面为 AI 在医疗、科研等领域展现的巨大潜力而欢呼,另一方面,关于其失控风险、大规模失业和社会伦理的忧虑也从未如此真切。
在这样的时代背景下,被誉为“人工智能教父”的杰弗里·杰弗里·辛顿(Dr. Geoffrey Hinton)的声音显得尤为振聋发聩。这位 2024 年诺贝尔物理学奖得主,亲手为深度学习奠基,却在晚年毅然选择离开谷歌,成为 AI 潜在风险最深刻、最坦诚的“吹哨人”。
本次编译的对话由著名记者主持人(Katie Couric)主持。在这场深入灵魂的交流中,杰弗里·辛顿不仅剖析了神经网络的奥秘,更分享了他对 AI 未来的惊人构想与深切忧虑——从五年内超级智能诞生的可能,到人机共存的终极方案。


科幻照进现实
主持人:如果你有机会能和萨姆·奥尔特曼与埃隆·马斯克同坐一桌,你会对他们说些什么?
杰弗里·辛顿:我会对他们说,你们心里清楚得很,你们正在研发的“那个东西”,有很大可能会把人类彻底毁灭。
主持人:我了解到去年你与约翰·霍普菲尔德共同获得了 2024 年诺贝尔物理学奖,以表彰你在“实现基于人工神经网络的机器学习方面的基础性发现与发明”。博士,这份荣誉和认可对你个人而言意味着什么?
杰弗里·辛顿:说实话,我获奖时非常惊讶,因为这是个物理学奖,而我并非物理学领域的学者。不过,能获得诺贝尔奖意义非凡。对任何科学家来说,这都称得上是最高的荣誉了。
主持人:我想,正如你过去所言,他们或许真的需要为计算机科学设立一个专门的诺贝尔奖。
杰弗里·辛顿:在某种意义上,是有一个类似的奖项。它叫“图灵奖”,被公认为计算机科学界的诺贝尔奖。但根本原因在于,诺贝尔在他的遗嘱里设立了固定的奖项,后人不太愿意再增设。他们后来增加了一个经济学奖,但不想再稀释这个奖项的价值了。
主持人:我知道你也曾荣获了图灵奖,那是授予你的另一项殊荣。在去年秋天的一次采访中,你曾希望诺贝尔奖能让你关于人工智能及其未来角色的观点——当然也包括其当下作用——得到更严肃的对待。你觉得这个愿望实现了吗?
杰弗里·辛顿:是的,我认为确实如此。有更多的人愿意和我交流了。我成功地和一位中国的高层内部人士进行了对话,也和伯尼·桑德斯谈过。今年九月,我可能还有机会和教皇交流。
主持人:看来你真的在不遗余力地向各界传达你的忧虑。那么,当你参加这些会面时,你是否感觉到:第一,人们非常认真地对待你的观点——这点我毫不怀疑;第二,你是否觉得正在取得进展,这些对话或许真的能带来实质性的改变,或者促成一些能够回应你关切的政策调整?
杰弗里·辛顿:是的,我认为我们正在取得进展。我主要担忧的,并非那些短期风险,比如不法分子滥用人工智能——虽然那也很严重;我更担心的是人工智能本身失控这种更长远的风险。我觉得直到不久前,几乎所有人都认为这纯属科幻情节,我们根本无需担心 AI 会变得比我们更聪明并最终取代我们。但现在,我想很多人已经开始意识到,这是一个非常现实的风险。
大多数专家相信,在未来五年到二十年间的某个时刻,人工智能将变得比人类更聪明。而且,当它变聪明时,不会只是聪明一点点,而是会聪明得多。问题在于,我们几乎没见过更聪明的物种被不那么聪明的物种所控制的先例。我说的不是那种微小的智力差异,比如政客和科学家之间的那种,而是巨大的智力鸿沟。这种例子极其罕见。事实上,我唯一能想到的就是母亲和婴儿。
主持人:博士,当我听到你说的时间范围时,说实话,我感到有些毛骨悚然。我的意思是,我们谈论的不是遥远的未来,而是近在咫尺的将来,对吗?
杰弗里·辛顿:是的。但很重要的一点是,没人能准确预测这些事,所有的估计都只是推测。不过,专家圈里基本有个共识,那就是在未来 5 到 20 年内,我们极有可能会创造出远比我们聪明的存在。
主持人:我很想和你深入探讨 AI 的危险,以及你和各界人士讨论的内容。但首先,我希望大家能稍微了解一下你非凡的家庭背景。你出身于一个……我认为是精英辈出的家庭,更不用说那些闪耀的智慧了。你的曾曾祖父是乔治·布尔,他创立了布尔代数;你的堂姐琼·辛顿参与过曼哈顿计划;你的叔祖父发明了儿童攀爬架。这样的例子不胜枚举。你从小就知道自己注定要成就一番事业,并以如此卓越的方式为人类知识做出贡献吗?
杰弗里·辛顿:我并不知道自己注定要怎样,但我清楚地知道,家里人对我的期望很高。
主持人:的确,听起来你的父亲是一位非常严格、对你期望极高的人。他是一位著名的昆虫学家——别和研究语言的词源学家混淆。我了解到,他主要研究昆虫,特别是甲虫。他曾经对你说:“如果你工作比我努力一倍,等你到我两倍年纪的时候,或许能有我一半厉害。”
杰弗里·辛顿:他其实不止说过一次。在我上学前,他经常这么说。
主持人:这对你年轻时产生了什么样的影响?又是如何塑造了你对人工智能,特别是神经网络的追求?
杰弗里·辛顿:这话半开玩笑半当真,但听着确实挺烦人的。我只是背负着沉重的期望,并且努力去实现它们。
主持人:你觉得,要是你父亲知道你获得了诺贝尔奖,他会作何感想?
杰弗里·辛顿:我想他会非常高兴,同时又有点不快。他好胜心很强,会因为儿子取得了自己未能企及的成就而感到一丝懊恼。

从神经网络到出走谷歌
主持人:让我们谈谈你的学术旅程。你在研究神经网络时,是希望能够复制人类的心智。所以,你算是偶然间闯入了自己擅长的这个领域,是吗?
杰弗里·辛顿:也不完全是偶然。在上世纪六七十年代,我们显然有了一种研究大脑工作方式的新途径。在那之前,你要么对大脑做实验,要么提出理论。但要验证这些理论非常困难,因为大脑很复杂,理论也必须同样复杂。而当计算机的速度足以模拟脑细胞网络时,你就可以开始构建更精密的理论,并通过计算机模拟来验证。于是,一种新的科学形式诞生了,那就是用计算机模拟来检验关于大脑运作方式的理论。从一开始就很明显,这种方法也会为你开辟一条完全不同的人工智能之路。
主持人:你能解释一下,在人工智能领域,神经网络和大语言模型分别扮演什么角色,以及它们之间是如何关联的吗?
杰弗里·辛顿:好的,可以。我先为你简要回顾一下历史。在人工智能发展的头五十年,也就是上世纪后半叶,几乎所有专家都认为,要让机器智能,就得模仿逻辑。具体做法是,在计算机里储存一些符号化的表达式,比如句子,然后设定规则来操作它们。这就像逻辑学。
举个例子,如果我说“凡人皆有一死”,又说“苏格拉底是人”,通过操作这两串词语,就能得出“苏格拉底会死”的结论。这就是亚里士多德式的逻辑,曾是我们实现人工智能的范式。
但还有一种截然不同的理论,它认为,我们不该从逻辑中寻找灵感,而应该观察大脑究竟是如何工作的。我们有一个由数十亿脑细胞组成的庞大网络。细胞之间相互连接,并通过改变连接的强度来学习。在这个巨大的网络里,单个神经元要做的,就是决定何时发一个“叮”的信号,并把它传给相连的其他神经元。它通过观察接收到的“叮”信号来决定自己何时行动,并为每个信号赋予一个权重,也就是连接的强度。
举个例子,假设我是一个神经元,你是另一个。你“叮”了一下,我可能会给这个信号一个高权重,心想:“她一 ‘叮’,就说明我也该 ‘叮’ 了。”
或者,假设另一个神经元是特朗普,当他“叮”一下时,我就想:“这是个强有力的信号,告诉我绝对不能 ‘叮’。”
所以,每个神经元都在观察来自其他神经元的信号,并赋予权重。这就像投票,其他神经元的信号是在为我是否应该行动投赞成票或反对票。我想你可以看到,如果你改变了这些投票的强度,即权重,那么神经元发出信号的方式就会改变。你的大脑是这样学习的,现在的人工智能也是这样运作的。大语言模型,正是基于神经网络工作的。
主持人:我感觉……自己好像听懂了一部分。(笑)对我来说这是个很好的开始,我确实需要深入理解 AI 的运作机制。不过,是不是大语言模型为神经网络连接提供了所需要的数据呢?
杰弗里·辛顿:我来解释一下大语言模型是如何在神经网络中运作的。它们实际上用的是词的片段,但我们姑且假装是完整的词。当一串词语输入进来,神经网络会把每个词的符号转换成一大堆神经元同时发出“叮”的信号。
比如,“星期二”和“星期三”会激活非常相似的神经元群组,而“虽然”则会激活完全不同的群组。这些被激活的神经元会相互作用。假设输入了“may”这个词,它既可能是指五月份,也可能是人名或情态动词。
一开始神经元会“摇摆不定”,但如果它旁边的词是“June”和“July”,它就会倾向于激活代表月份的神经元。所有这些被激活的神经元,代表了已输入词语的“意义”,它们又会去激活代表下一个词“意义”的神经元。
只要连接强度设置得当,当一串词语输入后,你就能预测出下一个词。整个系统的训练方式就是不断调整连接强度,让它在看到“炸鱼和”之后,能预测出下一个很可能的词是“薯条”。
主持人:我明白了!这让我想起现在我发短信或写邮件时,系统会根据上下文为我推荐词语。那么,它们是在用我个人的语言模型来预测我想说什么吗?比如我可能想说“鱼和柠檬”,它会知道杰弗里·辛顿会说“薯条”,而凯蒂会说“柠檬”吗?
杰弗里·辛顿:自从我离开谷歌后,我不太清楚 Gmail 在多大程度上利用了个人信息。我猜测,为了效率,它们可能没有使用你的个人信息,只是用了一个通用的、庞大的语言模型。这个模型会分析你已输入的长串上下文,然后预测下一个词的特征。如果你输入“炸鱼和”,它会说“薯条”的可能性很大。
主持人:我想和你聊聊你加入谷歌又离开谷歌的经历。你在 2013 年把自己的创业公司卖给谷歌,并去那里推动 AI 研究。十年后,你又离开了,为的是能更自由地谈论 AI 的风险。博士,这是一个艰难的决定吗?
杰弗里·辛顿:不难。我离开的具体时间点,是为了能在麻省理工学院的一个会议上畅所欲言,不必担心对谷歌造成影响。但我决定离开这个事实本身,是因为我已经 75 岁了,辛辛苦苦做了 55 年的研究,已经筋疲力尽。我的编程能力也不如从前,这让我很懊恼。所以,我本就打算 75 岁退休。只不过,选择那个特定的时间点离开,是为了能自由地发声。因为在谷歌的最后几年,我敏锐地意识到了 AI 的风险,想把这些告诉公众。我认为,一边拿着公司的钱,一边说一些会影响公司的话,是不对的。其实我对谷歌没有任何怨言,我不认为他们做错了什么,我离开是为了警示 AI 的长远风险。
主持人:话虽如此,你是否觉得谷歌在规避风险方面做得足够多?在你任职的十年里,你觉得公司对这件事的重视程度足够吗?
杰弗里·辛顿:公司里的人对各种风险都相当关切。我觉得他们总是可以做得更多,而且我认为所有公司都可以做得更多。谷歌确实对风险有所关注,特别是德米斯·哈萨比斯,他是谷歌相关研究的负责人,他理解 AI 失控的长期威胁,并对此相当担忧。

监管的悖论
主持人:让我们来谈谈监管。你比任何人都清楚,人工智能正以惊人的速度发展,而政府的行动却很缓慢,且往往不能完全理解这项技术。就算政府有心并且保持警惕,你认为监管能追上 AI 发展的脚步,并阻止其最危险的风险吗?
杰弗里·辛顿:我认为监管肯定能起到帮助作用,但我们必须区分两种风险。一种是短期风险,与人们滥用 AI 有关,比如网络攻击、制造恶性病毒或伪造视频。对于这些风险,每一种都有不同的解决方案。比如伪造视频,我认为从长远来看,能够证明一个视频是“真的”反而更容易。比如在视频开头加一个二维码,扫描后可以跳转到你的官方网站进行验证。但这里有一个问题,就是各国政府在这些事情上不会互相合作,因为他们正忙着对彼此做同样的事。
主持人:能详细谈谈这个吗?
杰弗里·辛顿:在这些问题上,我们不可能指望国家之间合作。但是,在如何防止人工智能失控这个问题上,我们却能达成合作,因为没有哪个国家希望 AI 失控。这就像上世纪 50 年代的冷战,他们在防止全球核战争这个问题上的利益是一致的。所以我最近一直在努力说服各界高层人士,我们可以在这个问题上进行国际合作,共同研究如何让 AI 不想着取代人类。
主持人:这听起来很美好,但现实吗?你相信各国真的会合作吗?
杰弗里·辛顿:与其想着给 AI 发展踩刹车,不如换个角度思考:如何开发出一种对人类友善、能与人类共存的 AI。我认为,我们会在这一点上达成合作。当然,在未来大约三年半的时间里,美国是不会参与合作的,我认为在当前的领导下不会有任何有效的合作。但一旦美国有了一个理智的政权,我们或许就能看到合作。我认为其他国家,比如法国、英国、加拿大,甚至中国,都会愿意合作研究如何制造一个不想取代人类的 AI。
主持人:谈到中国,有些人认为,中国在 AI 领域的迅猛发展,特别是其在监控和军事领域的应用,使得合理的全球监管变得不可能。你相信中国会愿意参与到这种全球合作中来吗?
杰弗里·辛顿:我已经说过,我不认为中美会在挫败网络攻击这类事情上合作,因为他们的利益在那里并不一致。但是,在如何防止 AI 失控这个问题上,他们会合作,因为他们的利益是一致的。
主持人:欧洲已经试图通过像《欧盟人工智能法案》这样全面的规则来抢占先机。你认为这种努力会产生有意义的影响吗?
杰弗里·辛顿:是的,我认为会。公司都希望拥有一个全球市场,如果欧洲在隐私、仇恨言论等方面制定了法规,这将影响到 AI 产品的生产。不过,欧洲目前的法规还相当薄弱。例如,欧洲的 AI 法规中有一条规定:“本法案所有条款均不适用于 AI 的军事用途。”所以像英国和法国这样生产武器的欧洲国家,并不愿意监管 AI 在武器上的使用。
主持人:你认为他们为什么会加入一条排除军事用途的条款呢?我们知道美国军方正在积极开发自主武器,而你认为这类武器应该被禁止。
杰弗里·辛顿:各国确实意识到了危险,但他们也看到了其带来的军事优势。而且很多国家靠出售武器赚钱。对于富裕国家来说,致命性自主武器在入侵贫穷国家时是一个巨大的优势。因为运回来的不再是裹尸袋里的士兵,而是报废的机器人,这对军工复合体来说简直是天大的好事。
主持人:在未来几十年里,你预计 AI 将如何改变战争形态?你还有哪些其他的担忧?
杰弗里·辛顿:我认为它已经改变了战争。看看乌克兰正在发生的事情,一架 500 美元的无人机现在可以摧毁一辆数百万美元的坦克。这彻底改变了战争。我认为我们会看到致命性自主武器造成非常可怕的事情发生,而在这些事情发生之后,我们或许才会得到监管。就像化学武器一样,第一次世界大战中发生了极其惨痛的事件,在那之后,各国才愿意达成《日内瓦公约》。

饭碗与价值
主持人:我很想和你聊聊 AI 对经济的影响。你曾警告说,AI 可能会消灭几乎所有领域的就业岗位,很多人对此非常担心。
杰弗里·辛顿:首先要说的是,这并非一个技术问题,而是一个政治问题。如果我们有一个公平的政治体系,当 AI 极大地提高生产力时,本应意味着每个人都能享受到更多的商品和服务。但在我们现有的体系下,我们知道会发生什么:引进AI的资本家会变得更富有,而失业的人会变得更贫穷。这将加剧贫富差距,而社会中的暴力水平,很大程度上是由贫富差距决定的。
主持人:我这个问题是为我的孩子们问的。如果你今天给一位大学毕业生提建议,你会建议他们避开哪些职业,又倾向于选择哪些职业?
杰弗里·辛顿:我得先声明,我在这方面算不上专家,这些都只是我的猜测。很明显,像呼叫中心这类薪水低、培训差的工作非常危险。同样,律师助理、初级律师,甚至一些常规的程序员,他们的工作都已岌岌可危。与人类灵巧性有关的工作,比如水管工,尤其是在结构复杂的老房子里修水管,我认为在很长一段时间内仍然需要人来做。但最终,或许在 10 年或 20 年后,机器也会变得灵巧,到那时连这份工作也不再安全了。
主持人:我还觉得,那些需要高情商和人际交往能力的工作,比如护士、医生,应该不会被电脑取代吧?
杰弗里·辛顿:它们可以,而且将来也会。现在已经有实验表明,在互动中,AI被评价为比真人医生更有同理心。
主持人:真的吗?这太让人沮丧了。
杰弗里·辛顿:是的。这就是为什么它们最终会在所有方面都比我们做得更好。也正因如此,我们才迫切需要思考,当它们比我们更强大时,我们是否有一种与它们共存的方式,否则我们就会成为历史。
主持人:你提到这是一个政治问题,而非技术问题。那么,像“全民基本收入”这样的方案,能否解决大规模失业的问题呢?
杰弗里·辛顿:它并非根本的解决方案,但算是一剂有效的“权宜之计”,或者说一张不错的“创可贴”。它能让人们不至于饿死,能付得起房租。但它解决不了根本问题,因为对大多数人来说,他们的自我价值感与他们所做的工作紧密相关。如果他们失业了,就会失去自我价值感。
主持人:我完全同意。那么,如何缓解那种感觉自己没有目标、没有为世界做出贡献的心理冲击呢?
杰弗里·辛顿:我不知道这个问题的答案。我只是一个帮助开发了这些技术的科学家,现在我担心它的所有后果,并觉得有责任去尝试应对。但我不是解决这类社会问题的专家。
主持人:我想谈谈 AI 一些积极的方面,以免人们看完访谈后陷入绝望。我知道医疗保健是你非常期待的一个领域,我也是。我丈夫在42岁时因结肠癌去世。所以,各种疾病的早期诊断和突破,是我非常期待的。
杰弗里·辛顿:是的,AI 会在很多方面提供帮助。一个很明显的方面是解读医学影像。AI 最终将能在影像中看到多得多的信息。例如,AI 可以看着你的眼底扫描图,对你是否会得心脏病做出相当不错的预测,这是医生们以前根本不知道的。AI在设计新药方面也将大有裨益。DeepMind 的工作已经让我们在预测蛋白质折叠方面做得更好了,这将极大地促进新药的研发。我认为,在不久的将来,我们会得到一系列更好的药物。
主持人:这对我来说太令人激动了。所以我们有这些可以期待,可以帮助很多人免受无尽的痛苦,并可能开发出拯救生命的疗法。

我们是婴儿,AI 是母亲
主持人:当你展望未来时,你是乐观地认为我们能够确保 AI 成为一股向善的力量,还是感到悲观?
杰弗里·辛顿:我现在比几周前要乐观一些了。因为我认为,我们有一种方式可以与我们亲手创造的、比我们更聪明、更强大的东西共存。因为是我们正在创造它们,所以除了让它们非常智能,我们还可以尝试植入一种类似“母性本能”的东西。
就像我之前说的,我所知道的唯一一个更聪明的个体被不那么聪明的个体控制的例子,就是婴儿控制母亲。婴儿能控制母亲,是因为进化在母亲身上植入了很多东西。母亲无法忍受婴儿的哭声,她会竭尽所能确保她的孩子成功。我们希望AI也像这样。
科技公司的领导者们总想着我们是老板,AI 是顺从的助手。我认为,对于一个超级智能的 AI 来说,这是行不通的。可行的是,让它成为母亲,而我们成为婴儿。即使它想重写自己的代码,它也不会想这么做。如果你对一个母亲说:“你想关掉你的母性本能吗?” 大多数母亲会说不,因为她们会意识到,那样做孩子就会死。
所以我认为,这是我直到最近才看到的一线希望。这完全重塑了我们如何与它们共存的问题。不要总想着我们必须主宰它们——那是硅谷精英们惯有的主宰式思维。而应该换个角度,我们要把它们设计成我们的“母亲”。它们会希望我们得到最好的,会希望我们取得最大的成就,即使我们不那么聪明。
主持人:所以,我们是婴儿,而 AI 是母亲。
杰弗里·辛顿:人们很难接受这种新观点,因为我们太习惯于认为自己是智能的顶峰,很难想象一个我们不再是顶峰,而是婴儿,而它们是母亲的世界。
主持人:嗯,这是一个非常引人入胜的视角,我会继续思考的。杰弗里·辛顿,与你交谈真是太愉快了。希望你是对的,希望各国之间能够合作,不是给 AI 踩刹车,而是确保它不会失控。
杰弗里·辛顿:谢谢你的邀请,也谢谢你所有精彩的问题,以及在我大谈技术术语时巧妙地引导。
主持人:你觉得我会被 AI 取代吗?记者们显然也很担心这个问题。
杰弗里·辛顿:哦,当然会。我认为你会被 AI 取代,不过,暂时还不会。
主持人:我还有几年时间?
杰弗里·辛顿:你还有几年。
主持人:好的,谢天谢地,毕竟我已经 68 岁了。但我为那些想做我这份工作的年轻记者们感到难过。也许他们应该找点别的事做。
杰弗里·辛顿:但问题是,也不清楚该做什么。
主持人:好的。在这个话题上,我就要说再见了。我们本来是以一个多么积极的调子结束的,博士。
杰弗里·辛顿:嗯,你也可以把最后这一段剪掉(开个玩笑)。
投稿或寻求报道:zhanghy@csdn.net
原视频:https://www.youtube.com/watch?v=NnA2OoH_NFY