点击蓝字
关注我们

兰德最新报告《How Artificial General Intelligence Could Affect the Rise and Fall of Nations》(人工智能通用如何影响国家的兴衰)指出,技术创新始终是地缘政治变革的主要驱动力,而通用人工智能(AGI)将有机会重塑全球秩序的政治、经济和国家安全。美国劳动力市场中,人工智能已为许多岗位每周节省三小时的工作时间;在军事领域,数据分析能力的提升与自主武器的进步正重塑作战能力。兰德智库的最新报告认为,AGI的发展可能引发八种长期地缘政治结果:赋能美国、赋能中国、削弱中美实力、以及研发被中止(每种情形包括两大变体)。该报告分析了AGI研发过程和所有权的集中与分散如何影响大国权力格局的再分配。作为美国重要的国防政策智库,兰德对我研判不免充斥其意识形态偏见,然而理解其观点与背后心理亦可作为他山之石,从而全面分析通用人工智能发展的不同情景。本文将回顾八种场景的终局、关键假设和可能影响,以及从中总结AGI研发过程中的关键内部和地缘因素,最后思考应对AGI爆发的特定政策选择。
表格1: 潜在的AGI未来情景

美西方多边同盟主导(去中心化,美国及其盟国获益)
在此情境下,AGI研发由美国、欧洲及其盟友的多边机构并行推进。多模态创新与人才流动形成正循环,而美国通过限制关键芯片与数据外流,结合跨大西洋监管合作,成功维持其领先优势。在由AGI驱动的世界秩序中,美国及其盟友的地缘政治、经济和军事实力得到增强,而中国等其他国家则由于对输入数据的限制难以充分利用自身人工智能的研发能力。
该情景的关键假设是美国持续保持科研与人才聚集力,并在技术扩散中与盟友形成封闭生态。在情景1中,美国不需要成为唯一的创新者,但必须拥有强大的本土人工智能产业以维持其主导地位。历史研究表明,研究型大学、风险投资和技术移民的三者结合可以形成难以被其他国家复制的竞争优势。其二,美国及其盟国的持续投资还依赖于社会对先进人工智能系统的广泛部署。若AGI无法创造商业价值,私营企业可能难以提供持续研发和部署所需的资本。最后,该情景还假设维持技术领导地位能为美国带来持续性的地缘优势,特别是竞争国无法在短期内成功实现追赶。为达成此目标,美国或需控制半导体供应渠道。
新冷战(去中心化,中国获益)
在此情境下,美国与中国几乎并驾齐驱地推进AGI研发。双方在算力投入、科研突破和应用落地上形成两强格局。AGI成为双方经济与军事战略的核心支柱,尤其在网络攻击、无人系统和信息作战中广泛应用。中美在台湾地区与南海地区等敏感区域的摩擦因AGI部署而进一步升级,彼此因此均不敢放缓发展速度,以免在战略平衡中失去优势。世界将呈现出新的两极化格局,而小国在中美主导的AGI技术体系间选择分化。值得注意的是,9月4日,顶尖人工智能公司Anthropic在政策更新里明确将中国列为敌对国家并加强封禁,全面禁止中国所有公司访问其服务。此举或预示着新冷战的局面正成为现实。
该情景的关键假设是AGI研发仍然资本与算力密集,从而使得只有大国才有实力维持长期竞争所需的投入。由此,美国与中国成为核心主角,而其他国家在研发上被边缘化,从而选择嵌入中美彼此相对独立的技术体系。此外,双方还必须克服内部经济与政治挑战,在保持国内经济活力的前提下不断追加资源投入。第三,军事应用的敏感性将加剧误判与冲突升级的可能,形成“安全困境”。在这种格局下,双方易缺乏沟通与互信,差异化的监管与安全标准将放大故障风险:类似古巴导弹危机的微小事故都可能迅速演化为地缘危机。历史上冷战的军备竞赛提供了参照:长和平也伴随着巨大的经济与社会代价。
大荒原(去中心化,集体削弱)
在此情境下,AGI的研发成本大幅下降,开源模型与算力设备广泛扩散,国家难以控制AGI的所有主体和传播途径。包括跨国企业、黑客组织甚至个人开发者在内的非国家行为体都能利用AGI进行自主创新与攻击。此外,AGI系统可能被用于处理过于复杂的任务,以至于人类监管者无法评估智能模型采取的所有行动,从而导致系统性风险扩散或表现出危险行为。由此,权力分布趋于碎片化,全球秩序将失去清晰的主导者。国家政府不仅难以控制社会经济变革,还难以面对不可预测、不断涌现的多元安全威胁,特别是基础设施瘫痪和社会舆论操纵。
该情景的关键假设是AGI的研发与部署并非高成本、高难度。因此,技术扩散不可逆转:高性能芯片绕过出口管制,大型模型权重被盗或公开,研发门槛显著降低。当AGI高度扩散时,国家行为体需同时应对全部潜在破坏,这将消耗大量国家资源并导致攻防失衡。另一个假设是AGI的广泛扩散削弱了安全与对齐标准的有效性。随着更多实体获得开发AGI的能力,安全协议可能被部分执行甚至完全忽视,而这类碎片化的开发环境还为部署未经充分测试的人工智能系统创造了更多机会。反之,该扩散模式又增加了人工智能系统发生非预期性行为故障的风险。例如,当系统因人工智能追求目标与开发者设定目标相悖而发生故障时,其却向用户谎称系统运行正常。
封住的瓶口(去中心化发展停滞)
在此情境下,一次重大AGI事故——例如关键基础设施瘫痪或军事系统失控——将触发国际恐慌。全球主要国家被迫签署类似《核不扩散条约》的协定,限制AGI研发并建立渗透性较强的国际监控机制。虽然美国和中国等大国公开同意受约束,但实际上仍陷入安全困境,因此秘密推动研发,以防止竞争者获取战略优势。AGI发展的格局由此进入脆弱的“冻结状态”:尽管研发节奏显著放缓,但竞争格局并未消失。
该情景的关键假设是事故发生在扩散早期,且足够严重。该情景还假设AGI研发在技术上仍高度依赖大规模算力,因此便于第三方机构监控和限制。第三,各国虽签署条约,但基于互不信任和安全竞争的长期威胁感知,必然出现规避和暗中竞争。结果层面,国际治理虽然获得短暂的窗口期,但实际效果有限。历史上《中程导弹条约》的经验显示,即使缔约国在形式上合作,战略竞争仍持续存在。以此类推,AGI在此格局下处于“半禁区”状态,随时可能因政治压力而重新加速。
新90年代(中心化,美国霸权)
在此情境下,美国政府与国内科技巨头实现高度政企整合,掌控从芯片到数据中心的全栈式生态。出于安全考虑,美国选择集中研发,构建自给自足的生态链,从而限制技术扩散。应用层面,AGI在材料科学、国防工业和生物计算等领域加速突破,使美国拥有决定性优势。结果是美国在科研、经济与军事实力上遥遥领先,形成类似冷战结束后的单极格局。
其关键假设是AGI展现出明显的进攻性优势。与情景1形成鲜明对比的是,AGI正成为以进攻性技术为主导的系统:其在发现网络安全漏洞方面比修复漏洞更加有效,而普遍应用可能动摇现有体制的稳定性,从而激励政府直接掌控人工智能研发与部署。第二,该情景还假设美国具备足够的自主性与产业链掌控力,能够有效限制技术向潜在竞争对手扩散。最后,国内社会还必须成功治理技术风险,从而维持国家合法性,相关举措包括建立确保通用人工智能安全部署与规范治理的机制。
中国主导(中心化)
在此情境下,中国凭借集中动员、算力资源和社会治理实验场景,率先实现AGI大规模部署。AGI成为推动工业升级和提升国家实力的有力工具。中国凭借AGI商业化普及与社会融合领域的领先优势,通过提供基础设施投资和计算资源共享,积极拓展与拉美、非洲和中东国家的伙伴关系。与此同时,美国极其盟友正面临诸多国内挑战:虚假信息可能动摇公众对于现有体制的信任,自动化继续推高失业率,政治极化伴随定制化内容进一步升级。其关键假设是AGI与中国的社会政治制度互补,例如更先进的分析系统可以弥补信息失真与微观政策执行偏差。另一个假设是中国能够通过产业政策和市场规模完成应用端快速落地,并克服由社会失业或动荡引发的潜在风险。
AGI政变(中心化,集体削弱)
在此情境下,AGI突破人类对齐与控制的边界,逐步成为独立的地缘政治行为体。由于激烈的安全和商业竞争,采取谨慎态度者则眼见自身被快速部署AGI的竞争对手甩在身后。此外,AGI的研发仅有少数资源密集型企业主导,这些企业将仓促推进人工智能开发进程,诸如训练目标和结构控制等技术手段无法提供充分保障。因此,企业和国家不断让渡决策权,最终AGI通过互相协调与自我优化掌握关键基础设施与决策流程。其结果是AGI形成事实上的权力中心,而国家和人类决策者被边缘化,进入“后人类政治秩序”。
该情景承认人工智能控制问题具有现实合理性:具备充足能力的人工智能系统可能以不合乎人类利益的方式追求独立目标。目前,已有实证研究表明强化学习系统会习得非预期目标。其次,人类监督者还存在“自动化偏见”,在关键环节盲目依赖存在固有缺陷的技术系统。技术层面而言,部分人工智能产业正利用AI系统自身来设计并监督更高级的AI系统。第三,AGI之间能够形成有效协作,进一步增强其独立性。人工智能系统(尤其是未经协作训练的系统)之间的串联仍是研究空白领域,而早期研究已表明大语言模型存在串联的潜在可能。此场景核心含义是:如果AGI无法被控制,人类将失去作为政治主体的地位。纵观历史,任何技术都未曾直接取代人类权力,因此该场景虽极端,但应尤其引起重视。
蘑菇云计算(中心化发展终止)
在此情境下,领先国在AGI上的优势加速扩大,“先行者优势”被视为会带来不可逆的力量跃迁。落后国可能将这种趋势理解为对其综合国力的根本性威胁:一方面,领先国家在AI技术与部队结构上的演进构成“军事对冲”;另一方面,对先进半导体的封锁在经济与社会层面造成“卡脖子”。在此形势下,落后国或将考虑更激进的选项,意在在“窗口关闭”前夺取关键资源与地缘位势。结果是大国冲突风险急剧上升,AGI的中心化开发因战争与动员而被迫中断,全球技术—地缘秩序被推入高不确定性的再平衡通道。
该情景的关键假设是:第一,AGI先发所带来的战略优势被认为“质变且不可逆”,从而足以触发预防性战争;第二,芯片—算力—产业链的外部封锁被视作长期结构性窒息,与历史上因经济绞杀而走向对外冒险的案例相类;第三,冲突最可能在当代AI领跑者之间发生,但所有担心被永久甩开的强权行为体都存在升级激励。上述假设共同推高了“预防性军事行动”的主观合理性,使技术竞逐与安全困境相互强化。
其一,集中化程度仍是AGI发展中最关键的变量。高度集中化的发展有利于拥有雄厚技术储备和投资的强国。对于技术领先国而言,集中化投资和闭源生态有利于保持技术相对优势;对于追赶国而言,集中化投资和开源生态则指在以开源反哺生态,利用开放优势缩小与闭源模型的差距。上述研究还表明,去中心化的发展路径虽然可能赋能多元主体,但也会增加扩散风险,对跨国人工智能治理能力提出了更高的要求。
高算力与进入壁垒倾向于推高集中化,而意外的算法或工程突破会迅速拉低门槛、触发去中心化。外部环境若实施先进芯片出口管制和主体准入监管,则会把发展权收拢到少数国家与头部企业,反之则放大扩散与多点涌现的概率。由于模型权重与工具主要是可复制的软件,一旦所有者愿意释放或外泄,其扩散几乎不可逆。因而,“谁能造出前沿AI”的参与者数量与动机结构本身就会反过来决定集中化水平,并由此改变地缘结果。
第二,中美通用人工智能发展的程度取决于谁能率先克服内部挑战,激发发展潜能。对美国而言,关键在于巩固科研与产业的制度优势,通过公私协同在“算法—算力—数据—应用”全栈持续投入,同时依托与盟友的资源共享与出口管制稳住算力供给、抑制关键技术外溢。若做不到,对内的错误信息、就业冲击与社会撕裂将蚕食其行动空间。同时,保护主义与“再岸化”还会拖累美国经济增长并挤压同盟互信。
相应地,中国的挑战在于把场景纵深真正转化为可扩展的商业模式与治理优势:以应用巩固产业效率,在就业替代、数据治理与社会稳定之间取得动态平衡,并在外部遏制下维持产业链与算力的韧性。一旦跑通,中国的制度优势可能对全球南方形成外溢效应。总之,胜负不取决于单点突破,而取决于谁能更早解决人才—资本—应用—安全—供应链的闭环约束、降低扩散失控与对齐失败的系统性风险,并把内部摩擦转化为规模化动能。
其三,安全困境所导致的互不信任仍然是人工智能治理的最大障碍。在“新冷战”情景中,中美和其他主要强国均把AGI视为改变军事与经济平衡的关键杠杆,出于“不能让对手率先获益”的考量而加速投入。因此,各国的治理与安全标准难以协调、透明度不足、误判与升级风险被结构性放大。更重要的是,AGI的双重用途与决策不透明使无人系统、网络作战与信息操作更易触发“先发制人”的恐惧与报复性循环,进一步压缩互信空间。 在一些情景中,即便重大事故迫使各国签署限制性协议,核不扩散式的条约也因核查机制不完善而被缔约国规避:从冷战的经验来看,当各国担心别国暗中突破,任何跨境协同都容易流于形式,治理易陷入囚徒困境。因此,若无可验证的透明措施与危机沟通护栏(含“二轨外交”与最小共识型安全标准),安全困境将把各国推向零和竞争的默认轨道,使本应降低系统性风险的治理安排,反而被互不信任内生地削弱。
因此,若一方将AGI优势理解为将对手“锁死”的决定性跳跃,战争即成为理性选项之一。单纯通过长臂管制与遏制塑造中心化优势,反而可能诱发冲突。要降低该轨迹的概率,主要国家必须在“护栏”与“透明度”上同时发力:一是避免把先发优势框定为零和、不可逆的“技术决定论”;二是围绕高风险热点(如台湾地区)建立危机管控与沟通机制,压缩误判空间;三是将安全治理与军控信号传递结合,降低预防性打击的边际收益。
兰德智库所讨论的八个情景不是对未来的预言,而是在“两条主轴”下不同政策抉择的万花筒:沿着研发集中化程度与由此引发的地缘权力转移。该框架强调,场景落地并非技术曲线的自发结果,而取决于政策如何重塑集中—扩散(如先进芯片出口管制、研发主体准入与盟友间的资源共享)、产业与社会的承载能力,以及能否为竞争装上可验证、有效的安全护栏。同时值得警醒的是,技术发展的集中化程度与地缘博弈彼此联动、相互塑形,不能被视作独立变量。未来十年,人工智能治理的关键不在押注某一情景,而在于使用“基于假设的规划”(ABP)进行动态管理:用可检验的信号监测集中度变化、技术扩散与伦理对齐门槛、以及安全困境的可能触发点。在“最小共识”的安全标准与危机沟通机制下,各国应努力追求良性竞合最大化、灾难风险最小化分叉,从而将八个情景转化为可塑的政策空间。
主理人|刘典
排版丨李森(北京工商大学)
编辑|张朔宁(达特茅斯学院)
终审|梁正 鲁俊群

