点击蓝字
关注我们
2025年7月26日下午,2025世界人工智能大会“人工智能发展与安全全体会议”在上海世博中心隆重召开。清华大学文科资深教授、人工智能国际治理研究院院长薛澜作为主持人邀请英国牛津大学布拉瓦尼克政府学院创始院长,教授林奈莉(Ngaire Woods),上海交通大学文科资深教授、人工智能治理与法律研究中心主任季卫东,中国电子信息产业发展研究院党委副书记、人工智能场景化应用与智能系统测评工业和信息化部重点实验室主任胡国栋,美国微软公司前首席研究与战略官克雷格·蒙迪(Craig Mundie),中国电信集团网络与信息安全首席专家、云网基础设施安全国家工程研究中心主任刘紫千,阿里云智能集团副总裁、阿里云市场总监刘湘雯,开展以“AI与人类的和谐未来:跨学科视角下的风险评估与安全治理”为主题的研讨。以下为对话实录(有删改):
薛澜:
感谢各位专家参与圆桌。我们已经在前面的讨论中听到了许多关于人工智能潜在风险与发展前景的精彩观点。接下来,我想请每位小组成员围绕一个简明的问题进行发言:在您看来,未来五年内,人工智能最令人兴奋的机会是什么?最值得担忧的风险又是什么?
季卫东:
从人工智能发展的经济和社会效益角度来看,我认为最令人振奋的前沿方向之一,是脑-机接口技术的突破。这一技术有望推动人类自身的重构与认知能力的延伸,从而实现更高水平的人机协同。
关于风险方面,我认为最值得关注的问题在于:各国在人工智能主权上的竞争正在加剧,导致全球AI实践日益碎片化。这种碎片化可能带来治理上的分裂与冲突,进一步加剧风险。因此,我们迫切需要加强国际协调,推动人工智能领域的共同规则制定,特别是在AI法律与治理机制方面加快构建统一框架。
谢谢。
胡国栋:
我认为人工智能最令人兴奋的机会,是它在未来应对气候变化方面所能发挥的重要作用。根据中国学者的一项研究,人工智能相关专利申请的增加,有助于推动碳排放的降低,减少幅度约为1.6%。从这个角度看,AI的发展将助力全球朝着更可持续的方向迈进,这是令人非常振奋的前景。
至于风险方面,我想引用中国古代的一句箴言:“人法地,地法天,天法道,道法自然。”这句古语提醒我们,人类的智慧和计算能力始终受制于自然规律。如果我们片面追求技术的无限发展,而忽视了这一“天道”限制,可能会引发深层次的风险。
正如 Stuart Russell所指出的,生物智能在计算能力上无法超越数字智能。这就意味着,如果我们没有充分理解并谨慎应对AI的发展路径,其能力反而可能对人类本身构成威胁。我认为,这正是当前我们面临的最大风险之一。
克雷格·蒙迪:
我将把我的发言聚焦在本次小组讨论的核心议题上,即治理,尤其是国际层面的AI治理。
我认为当前我们所面临的最大机遇之一,是人工智能系统已经具备了解决高维复杂问题的能力。正如 Yoshua Bengio 和 Geoffrey Hinton 所指出的,在传统意义上,人类很难对这些系统进行直接控制。但与此同时,也有嘉宾提到一个非常值得关注的方向:使用AI来监管和管理AI本身的行为。这是一个可以立即开始推动的重要方向。
这类监管AI系统的构建,可以是完全透明的过程,同时具有开展跨国合作的潜力,从而缓解国家之间在AI发展上的竞争风险。为了实现这一目标,政府与企业需要建立持续的合作机制。幸运的是,当前的AI系统已经具有可观测性与可控性,这为构建此类“监管AI”提供了现实可行的路径。我认为,这就是我们在AI治理问题上最重要的机会,它有望成为一个有国际广泛参与的合作项目。
至于我最担心的风险,是当前AI能力水平下对全球网络安全的潜在冲击。
这个问题的严重性在于,它不是一个遥远的威胁,而是迫在眉睫的挑战。人工智能技术的迅速发展叠加网络系统的脆弱性,正在形成一种新的系统性风险——即恶意行为者可以通过破坏基础网络设施,迅速造成一个国家级别的全面瘫痪。
我认为,依靠传统的安全机制已经不足以应对这一威胁。我们需要一个结合先进AI技术的全新安全架构。这个问题不能等,也不仅仅是未来5年、10年或20年的风险,它可能5到10个月内就会显现出来。
因此,我呼吁全球各国尽快组建跨国联盟,紧急推动在身份认证机制、网络控制架构以及AI系统运行方式上的根本变革。唯有如此,我们才能有效减缓和管控这些极具现实性和紧迫性的风险。
刘紫千:
谢谢薛教授。在我看来,人工智能带来的最大机会,在于它能够以一种人类前所未有的、富有创造性和新颖性的方式来解决问题。
举一个例子,比如AlphaFold2成功预测蛋白质结构,彻底改变了我们对生命科学研究的认知方式。在我自己的专业领域——网络安全中,我也能感受到类似的潜力。
作为一名网络安全专家,我完全认同前面嘉宾所提出的担忧。我想补充的一点是:我们迫切需要一种全新的方式来编码和管理如今庞大而复杂的设备与方法体系,以有效应对高级持续性威胁(APT)等复杂攻击。
当前,网络攻防之间存在一个显著的不对称:攻击者的成本极低,而防御方则承担着高昂的代价。这种“成本鸿沟”使得许多防御工作变得缺乏性价比,严重制约了整体安全能力的提升。我非常希望能看到一种由AI驱动的颠覆性方法,使我们能够用更低的代价构建起更强大、更智能的防御系统,从而改变这种“守方天然劣势”的局面。
AI越强大,人类自身对其依赖就越深,也越容易因过度依赖而忽视潜在风险。如果我们没有足够清晰的边界、合理的预设机制和稳健的伦理与监管框架,AI所带来的智能优势可能反过来成为系统性风险的放大器。
因此,面对这样一项“双刃剑”式的技术,我们需要以更加审慎和前瞻性的态度来推动其发展和治理。
在刚才的小组讨论中,各位正式嘉宾已经阐述了许多关于AI的挑战与担忧,我们可以清晰地看到一个现实:目前我们对于如何真正应对AI所带来的风险,仍然没有明确的答案。
我自己最关心的一个问题是——代价是什么?
在技术演进的过程中,总会存在时间差:风险往往先于对策出现,而监管机制、法律制度的建立和完善又通常更加滞后。
那么,我们究竟会以什么样的代价来换取对这些风险的应对方案?
我们能不能在不经历重大损失或危机的前提下,提前建立起有效的治理和防护体系?这并不确定。
我相信,我们终究会找到出路,也能够制定出应对策略,但在那之前,我们需要直面这个问题:我们是否愿意,也是否能够承受为这些代价所带来的后果?
这正是我目前最大的担忧。
刘湘雯:
我是来自企业界的人士。从商业的角度来看,我认为当前最令人兴奋的机会,来源于智能体(Agent)的爆发式发展。与此同时,最大的挑战也正是由此带来的:安全问题正在从孤立的、点状的风险,转变为更具系统性、广泛性的安全风险。
为了更清楚地表达我的观点,我接下来将用中文阐述。
从业务角度来看,智能体不再只是点对点的工具,它们将深刻改变我们的生产方式和生活方式。我们可以看到,智能体正迅速发展,并在“供需两端”带来了前所未有的机遇:
在供给侧,大模型正朝着多模态融合的方向演进,使智能体能够接收语言、音频、视频等多种输入形式,提升对复杂任务的理解与执行能力。同时,结合强化学习的进展,这些智能体具备了自我修复、自我演进的能力,正逐步向“超级智能”迈进。
在消费侧,无论是企业还是日常生活领域,我们已经看到越来越多的智能体被广泛应用。例如,在营销、客服等领域,它的表现甚至已超越人类平均水平。
正如前面的几位嘉宾提到的,教育、医疗、应急救灾等多个关键场景中,代理的潜力巨大。但也正因为如此,它们正快速深入嵌入我们社会的核心系统,这意味着我们面临的将不再是零散的技术风险,而是成体系、关联性更强的安全挑战。
例如,从模型的部署方式,到模型本身在在线应用中的表现,再到不同类型模型之间可能引发的攻击,我们都将面临更高维度、更广范围的安全威胁。
因此,我认为,在欣喜于智能体技术带来的颠覆性创新的同时,我们必须高度警惕其背后潜藏的系统性安全风险。
薛澜:
我的意思是,你们不一定要立刻回应,但希望你们可以思考一下,在AI的众多应用中,是否还存在一些尚未被充分意识到或讨论的潜在机会?比如,阿里巴巴已经在电商等领域实现了AI的落地应用。但我在想,是否还存在更出人意料、甚至被低估的AI应用方向?
这些机会,可能不像教育、医疗、气候变化应对这类热门领域那么常被提及,但也许正是这种“不起眼的创新”,会在未来产生深远影响。大家可以思考一下:AI还有哪些未被广泛认识、却可能具有重大潜力的用途?
林奈莉:
作为本次讨论中关注治理问题以及政府角色的发言者,我想从这个角度谈一谈AI治理中我们应当关注的重点。事实上,在关于AI如何辅助政府治理的问题上,目前的讨论还远远不够。而这正是我们今天这个小组讨论所聚焦的议题。
我希望大家能带走三点关键思考:
第一,自动驾驶式的治理不太可能奏效,反而可能带来最糟糕的结果。
打个比方,如果我们回顾化工行业的历史,就会想到博帕尔事件(Bhopal disaster)这样严重的事故。事发之后,该行业推出了“责任关怀”(Responsible Care)准则,号称实现自我监管。然而,实际发生的情况是:一些污染最严重的企业加入这一准则,只是为了“漂白”形象,并掩盖其不良行为。这反而让那些真正希望负责任经营的企业更难坚持自身标准。因此,自我监管永远需要外部监督,需要第三方的、特别是政府的介入和把关。
第二个经验是,我们往往在AI领域以非常复杂的方式来设想监管框架,但实际上,我们必须从政府监管能力的现实出发来思考。
以金融行业为例,私营部门拥有大量专业资源、高素质人才以及强烈的市场驱动力,即使面对高风险,也不断追求成功。我在AI领域同样看到了这些特征。但相较之下,“政府监管部门的人员往往规模较小,薪酬不高,缺乏系统培训和发展路径,也缺乏足够的激励去承担监管责任。”这不是他们的过错,而是我们需要面对的制度现实。因此,在设计监管机制时,必须以执法者的现实能力为出发点,考虑如何让政府、第三方和行业之间形成有效的协作机制。比如,我们是否可以让政府通过制度设计,为科技行业创造出合适的激励结构,从而促使其更主动地承担安全和合规责任?
第三点,既然我们是在进行一场全球性的对话,就必须强调跨国交流的重要性。
我们今天能够在上海齐聚一堂,有来自美国、欧洲、中国和其他地区的专家共同讨论,这本身就是一个极具意义的时刻。就像我们从2008年金融危机中看到的那样,G20、各国央行行长的定期会议,以及全球监管者之间的持续沟通与理解,是推动国际监管协作和风险管理进步的基础。同样的,我们也需要在AI领域构建这样的全球治理网络。
薛澜:
当然,作为一名长期关注公共行政领域的学者,我对玛丽刚才提出的观点感同身受,并且非常认同她关于政府监管能力限制的观察。但与此同时,我也不确定我们在座的几位来自产业界的圆桌嘉宾是否完全认同她的判断,或者是否有不同的看法。也许你们中有人有不同的观点?你们是否希望回应一下?
克雷格·蒙迪:
我想说的是,至少在美国,一些企业几年前就已经意识到,他们将不可避免地需要某种形式的监管。我认为问题不在于是否需要监管,而在于我们应如何设计出真正有效的监管机制。这也促使政府在多个层面探索可行的监管路径。然而,我认为目前大多数努力尚未形成切实有效的控制手段。
值得注意的是,企业其实已经认识到,社会不会赋予它们自行强制执行行为规范的权力。而要想在地方或国际层面解决这些复杂的问题,最终仍需要政府介入并统一处理。因为政府是唯一有权强制推行统一行动的主体,企业无论在任何国家都不具备这种权力。
企业目前能做的,是尽力构建那些受用户欢迎的产品。人们愿意购买和使用它们,而这些产品在大范围内传播之后,政府可能会介入说:“这是一个不错的解决方案,我们不妨全面采用。”过去几十年来,全球软件产品的扩展方式其实就是这种“事实上的标准化”,并不是一开始就依赖法规强制实现的。
我认为,现在仍然缺乏足够的关注来指导政府如何形成真正可执行的协议。但实际上,有价值的做法之一是推动企业聚焦于开发能够解决关键治理问题的技术产品。例如,我之前提到过的一个方向:构建能够观察其他AI行为的AI系统。
你可能会惊讶地发现,如果专注于开发这样的“元AI”,它可以发挥几个关键作用:
反馈机制:它可以对现有AI系统的行为进行监测并提供反馈。我们知道,一些AI系统存在“越轨”倾向,或者容易被人为诱导做出异常行为。但我们也发现,为这些系统提供关于其错误或可改进之处的反馈,有助于重新校准其行为。这就需要建立一个积极的反馈回路,在行为观察与AI系统运行之间形成有效连接。
审计与透明:这样的监测AI还能生成行为的审计记录。这些记录可以反馈给政府或立法机构,让他们了解到,在本国范围内,AI系统正在实际执行哪些任务。而当前的法律体系可能尚未对此覆盖或达成一致。这类信息将是推动多国协调治理的重要依据。
因此,我认为,这是一个值得投入的方向。政府可以联合推动开发并部署一套统一的“监管型AI”,用于对关键系统进行监测。这一系统不仅能向被监测AI提供行为反馈,也能为监管机构提供数据支持,并为实现“AI监管AI”的机制奠定基础。随着能力提升,这种方法将可能成为跨国协同治理AI风险的有效路径。
薛澜:
谢谢。那么接下来我想请教各位一个问题:在你们看来,在未来阶段实现人工智能技术大规模部署的过程中,最主要的政策或制度性障碍是什么?欢迎大家分享看法。
胡国栋:
在我们深入探讨AI治理的制度性障碍之前,我想先快速回顾一下近年来人工智能的发展历程。
事实上,整个世界进入了所谓的“ChatGPT时刻”已经有三年了。这一波技术浪潮的背后,是基于Transformer架构的深刻变革,而这种架构的诞生可以追溯到七年前,即2017年。那一年,Transformer模型的提出,彻底革新了人工智能领域的技术范式。
而到了2022年,ChatGPT正式向公众开放,更是将这一变革推向高潮,推动AI从实验室走向大规模实际应用。可以说,短短几年,人工智能在语言理解、知识推理、内容生成等方面取得了巨大突破,极大地改变了我们对AI能力的认知边界。
“关注你的需求”——这句话或许可以代表我们思考人工智能发展的一个核心视角。那为什么我刚才强调“三年”和“七年”这两个里程碑如此重要?这是因为我们已经看到,AI就像一个迅速成长的孩子,它的能力正在以极快的速度演进。
数字智能正快速走来,而且很可能在不远的将来超越人类的某些智能水平。也正是在这一关键的过渡时刻,我们所面临的主要障碍,不是技术本身,而是一些国家在治理层面上所采取的态度。
一些国家声称要消除人工智能发展的障碍,但实际上,他们却在制造越来越多的障碍。这些障碍像“带围墙的小院子”一样,以保护主义、数据壁垒、地缘政治等名义将AI的发展碎片化、孤立化,反而阻碍了全球协同治理和负责任发展的步伐。
我认为,一些国家确实愿意在关切人类未来的全球共同体中,通过共识与合作来推动人工智能治理。这是一个好消息。正如姚教授和其他专家所强调的,我们对于AI和安全问题的关注正在加深,这是积极的信号。
但同时也有令人担忧的坏消息。在同一个时间点,另一些国家却在加速推进所谓“你用你的、我用我的”——也就是说,各自为政地发展人工智能。这种割裂的趋势,使得全球范围内建立统一的AI治理框架变得更加困难。
一些国家错过了一个重要的历史性契机——那就是以全球协作为基础,推动新型国际秩序的构建,在系统性合作中支持一种“矫正式治理”(corrective governance)理念的形成。
今天,世界在AI领域的合作依然非常稀缺,同时还存在两个突出的挑战:关税壁垒与规则碎片化。要想解决这些问题,我们必须正视这些障碍的本质。
目前全球在AI治理上的共识严重不足,有的国家甚至将AI治理变成了“出口管制工具”。这种不确定性所带来的治理风险,可能比全球气候治理失败带来的影响还要严重。正如一位企业首席执行官所说的:“如果你不能治理它,它终将反噬你。”
人工智能将深刻融入人类生活的各个方面,如果我们不能以全球视角构建稳定、可信、协调的治理体系,将是令人非常遗憾的事情。
谢谢。
薛澜:
首先,我想从各位的角度出发提出一个问题。似乎我们听到的不多,但我认为这是一个关键点——也就是说,是否可以认为,现在已经到了人工智能实现大规模商业化,以及开展所谓“垂直领域应用”的阶段?
你们是否认同这样的判断?在接下来的几年里,我们是否将真正进入这一阶段?
如果答案是肯定的,那么接下来的问题就是:可能会阻碍这一进程的治理障碍有哪些?我们又应当采取什么样的政策或制度措施,来有效地推动人工智能在商业化与垂直应用方面的发展?
刘湘雯:
从企业的角度来看,尤其是结合我们在中国的运营情况,以及人工智能在中国的发展现状,作为云服务提供商和平台方,我们肩负着确保AI安全和保障的重任。针对这个问题,我想从几个角度进行阐述。
未来几年,我们可能会首先在模型层面开展项目开发。无论是大型语言模型(LMS)还是扩散模型,所有这些模型,我们都必须确保它们能够提供可靠的信息服务。
在工业应用中,目前多数做法较为相似。我们将重点关注三个安全层次,为生产模型提供相应的安全保障机制:
第一层,是内在的安全算法设计。我们在模型训练和开发过程中,会内置多项安全保障措施。
第二层,是训练阶段的安全保障,确保部署到生产环境中的模型本身是安全可靠的,并且通过多种测试机制验证其安全性。
作为模型提供商和云平台提供商,我们还为客户提供相关工具,支持他们开发自己的模型。在这个过程中,我们看到安全保障正从模型本身,逐渐延伸到整个生态体系。
第三层,是模型应用层面的安全。当客户在实际应用模型时,将面对多样化的安全挑战,例如分布式拒绝服务攻击(DDoS)、API机器人攻击、甚至是利用AI进行的恶意攻击等。这些新型威胁与传统互联网时代的安全问题存在显著差异,且更具挑战性。
因此,从行业整体角度出发,若要实现AI的更大规模安全部署,我们正在积极帮助客户建立并完善这三个层面的安全机制,预计未来3至5年内,这些机制将逐步成型并发挥作用。
这既是我们必须解决的现实问题,也是我们正全力攻坚的重点方向。
薛澜:
关于治理问题,我想谈几点。Neri 刚才提到了政府面临的诸多挑战,比如在面对不确定性和AI治理问题时的困境,当然整个行业也面临类似的压力。你基本上是在暗示,从解决问题的角度来看,行业似乎处于一个相对更有优势的位置。
那么,季教授您作为一位法律教授,我想请教您。在法律治理工具的运用上,政府往往资源有限,执行力也有限。在比较美国、欧洲和中国三方的治理实践时,您认为中国能从另外两个地区学到哪些经验和教训?又有哪些有效的法律治理工具,可以帮助我们更好地应对AI带来的风险?
季卫东:
自2025年5月以来,全球已经明确将AI的发展方向定位于“发展优先,安全保障为辅”。以及像美国部分州和地区对AI法规的禁止或限制。与此同时,日本和韩国推出了促进绿色AI研发的法律,欧盟委员会也计划推迟对“安全优先”AI参与者的相关规定,多位领导人呼吁建立“后倒计时机制”。这些变化将AI治理的复杂问题推到了全球议程的核心。
那么,我们能否在快速发展的同时无法有效管理风险?这也是为什么未来3到5年的AI治理和立法必将成为全球性议题的原因。
紧急的国际关注与合作势在必行,联合国及其相关机构为各方提供了重要的对话与协作平台。仅在2024年,联合国就通过了三项关键决议:一是关于构建更安全、更可信赖的AI体系;二是关于AI能力建设与国际合作;三是未来数字治理的全球框架。如何确保这些决议的有效落实,成为当前全球AI治理的紧迫任务。
考虑到AI技术带来的深刻变革,我认为我们可能需要建立类似于“国际原子能机构”那样的专门国际机构,来统筹管理AI风险,推动国际社会在规则和标准上的统一与强制执行,从而实现AI的安全、可持续发展。
林奈莉:
您提到了斯图尔特·罗素教授提出的“受监管硬件”方案,这确实是在AI治理领域引发了广泛关注。但正如您所说,当前全球地缘政治紧张和国际合作缺乏,这样的硬件监管方案是否可能加剧各国间的对立,是值得深思的问题。
克雷格·蒙迪教授则更倾向于通过软件解决方案,比如构建全球统一的AI软件审计追踪系统,从而实现透明和可监管的AI生态。这种软件层面的治理机制,是否意味着每个国家会开发自己的AI模型相互竞争?还是会推动建立一个全球标准的统一模型?这确实触及了AI治理的核心地缘政治挑战。
在您看来,这样的软件治理路径是否比硬件监管更有可能促进国际合作,缓解地缘政治紧张?或者,是否存在可能兼顾主权和合作的混合治理模式?这些都是当前专家们积极探讨的重要问题。
克雷格·蒙迪:
您提到的这个思路非常关键。确实,如果各国各自为政,各自建立自己的AI治理和审计体系,只会加剧孤立主义,甚至推动技术封锁与分裂,最终导致全球AI生态的不稳定。
反之,一个由多个国家和企业自愿组成的联盟,共同构建统一的AI监控、报告与反馈系统,能够建立起彼此之间的信任基础。这种合作机制不仅有助于提供及时反馈,监测AI行为,还能在短期内展现有效的治理表象,防止各方倒退、相互竞争式的技术封锁。
您将其比作法律和司法体系的运作,非常形象——AI系统相互监督,像司法系统监督人类行为一样,但并非进入“内心”,而是观察实际表现,从而采取纠正措施。这种方式有望促进网络安全治理的进步,也使我们能更好地理解AI部署的动态。
此外,您也强调了轻率部署AI技术带来的风险,担忧孤立和割裂趋势加剧,进而远离全球合作解决方案。您呼吁制造商与政府合作,达成共识,共同推动一个透明、统一、非干预性的监控系统,让AI治理具备更大的协调性和透明度,避免长期出现恶性对抗。
这为国际AI治理指明了可行路径:通过联合监督、反馈机制,促进全球协作与透明,抵制分裂和对立,保障AI技术的健康稳定发展。
薛澜:
非常感谢大家的精彩发言。时间有限,我们只剩下一分钟。我想请其他圆桌嘉宾简要分享一下你们认为的关键建议——无论是具体的措施,还是战略性的转变——帮助我们把全球AI治理引向正确的方向。大家刚才已经指出了不少问题和挑战,现在我想听听你们最核心的一个观点。克雷格可能已经说过了,但我希望其他人也能简单说说。
刘紫千:
谢谢,我想先说几句。作为圆桌嘉宾,我们讨论了政府和行业的角色,比如中国电信、微软和阿里巴巴等大型企业。在我看来,解决AI带来的问题,必须采取多维、多层次的方法,我们需要多方合作,但行业应当处于核心位置,因为行业拥有数据和应用场景,是这场“游戏”的主要参与者。如果我们能在实际操作中找到共同点,这些共同点就能成为监管和法律的基础,形成监管机构与政府间的共同利益。尤其是在中国、欧盟和美国这样的地区,监管政策应当以鼓励AI的健康发展为目标,而非阻碍。
林奈莉:
我想补充一点,我担心让所有国家在一个统一标准上达成共识会耗费太多时间,而且在当前形势下几乎不可能实现。因此,我们需要一个联盟或互认系统。在这个系统里,各国至少能相互认可对方的AI模型是在遵守正确规范。与此同时,学者、企业和政府可以组成一个合作社区,积极推动合作进程,逐步加入这个联盟。
季卫东:
我认为2024年签署的《北京共识》明确了AI安全的治理技术路径。对政府来说,核心在于将AI治理从传统的中心化模式转变为基于技术的程序化框架,加大对AI安全技术和自身能力的投入,同时维护法律程序和司法公正,最终实现更高层次的道德原则。
胡国栋:
80年前的今天,中国、美国和英国签署了当时的重要公告。如今,世界正面临人工智能发展的关键时刻。那时,我们面临着数百万伏电力争夺控制权的危险;而正如辛顿教授所说,数字智能如今可能接管世界。因此,我们应当将政治使命与精神融入到AI的开发之中。积极宣言的核心是共享——共享权力,共享智慧,无论东方还是西方,无论南方还是北方,都是同一个目标。如果我们坚持这一点,就能让人工智能成为美好的力量,真正造福人类,为数字智能时代的人类共同历史做好准备。这就是我想说的,谢谢。
-往期回顾-




清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG