智库观察丨“面面俱到”的代价:内在矛盾如何削弱特朗普政府AI战略的潜力?

点击蓝字

关注我们


资讯配图

01

引言


2025年7月23日,美国特朗普政府正式发布《赢得AI竞赛:美国AI行动计划》(以下简称《行动计划》),在“加速创新”“建设基础设施”“引领全球外交与安全”三大支柱的统摄之下,该行动计划通过30项具体行动系统性阐述了本届美国政府对于国内和国际AI政策构想。


为实现“在全球范围内占据AI领域领导地位”的目标,《行动计划》涉及了极其广泛的内容,几乎涵盖AI开发、应用和治理领域的全部主要议题。支持者认为其中诸多拟议政策都极具创造性,符合释放AI潜力的实际需求;现有批评则指出,《行动计划》体现出一种由技术民族主义推动的、不负责任的“去监管”进程,可能削弱对AI这一颠覆性技术的治理努力。


本文认为,尽管该计划在表面上能为美国AI发展提供全面支持,但其所列的各项行动之间存在深层次的内在张力,这将不可避免地削弱《行动计划》实现既定目标的可行性。在实施过程中,为缓和这些张力,特朗普政府势必面临取舍难题,否则将在试图“兼顾一切”导致的左右互搏中持续浪费有限资源。

02

《行动计划》的内容简评


整体而言,《行动计划》体现了美国政府对AI技术发展作为“大国竞争关键竞技场”的基本战略认知。《行动计划》引言首段中就直言不讳地宣称:“谁拥有规模最大的AI生态系统,谁就能制定全球AI标准,并获得广泛的经济和军事利益”,并将当前围绕AI主导权的竞争与冷战时期的太空竞赛相提并论。基于这种强调技术主导权竞争的叙事框架,《行动计划》理所当然地将美国“获胜”设定为其AI政策的最终目标。


在正文部分,《行动计划》描述了实现这一目标的具体行动,并归纳为三大支柱:


(1)“加速创新”支柱旨在为AI开发和应用构建支持性的政策环境,包括消除“过度监管”和“自上而下的意识形态议程”对创新的障碍,鼓励开源以及促进政府采购和应用落地等。


(2)“建设基础设施”支柱要求简化审批手续和培训技术人才,为数据中心、半导体工厂和电网等AI相关基础设施的建设和现代化改造提供便利。


(3)“引领全球外交与安全”支柱旨在通过更广泛的“全栈出口”,帮助美国在全球范围内获得AI的市场和规范优势。

根据特朗普政府的设想,《行动计划》设计的众多行动将形成合力,推动一个“强化技术优势=>应用和出口变现=>反哺技术优势”的正向循环,最终帮助美国在AI竞争中“获胜”。

具体而言,首先,通过降低AI开发者合规负担并增加能源、半导体、数据等关键投入的有效供给,美国将巩固所有技术栈的现有优势。其次,在国内层面通过推动AI技术的应用落地,实现生产力提升;在国际层面通过技术扩散抢占市场份额,并将美国AI标准体系转化为事实上的全球通用规范,构建起准入壁垒。最后,国内应用和出口带来的商业价值变现可以用于增加美国企业的研发投入,最终反哺技术优势。


在此过程中,美国还将运用出口管制、外交和商业手段削弱竞争对手参与AI规范制定、获取AI市场份额的能力,确保其他经济体无力撼动美国基于上述循环建立科技霸权的努力。对此,《行动计划》再一次明确了特朗普政府对中国AI领域头号竞争对手的定位在该计划中,中国不仅是除美国本身外唯一被提及的国家,也是唯一被明确建立针对性管制措施的国家


《行动计划》提出的一系列行动虽然看似逻辑自洽,能够为强化美国的AI全球主导地位提供系统性支持,但其“面面俱到”的特征却也导致不同子目标、拟议行动之间难以实现有效平衡。可以合理预见,特朗普政府会在执行过程中被迫放弃部分行动。否则,其将不得不持续承受因《行动计划》内在冲突而导致的资源损耗。

03

降低企业合规负担与有效管控风险

之间的内在张力


“加速创新”支柱强调要取消繁重监管,特别是避免对私营部门的AI发展施加可能阻碍创新的限制。然而,《行动计划》并未放弃AI治理,文本中仍明确表达了对AI可能引发的滥用和国家安全风险的担忧。事实上,在其提出的30项具体行动中,有8项与识别和应对AI风险直接相关,包括:投资可解释性、可控性与鲁棒性研究;建立AI评估生态系统;提升前沿模型评估能力;加强关键基础设施的网络安全;应对恶意输入;抵御“深度伪造”对法律系统的冲击;投资AI相关生物安全;提升联邦政府响应AI事故的能力。

“去监管”的要求与通过治理减轻AI风险的要求之间存在内在张力。以对前沿AI模型的评估为例:一方面,如果评估既不作为模型应用的事前门槛,也不必然触发事后的风险缓解措施,那么这种评估必然流于形式,难以真正促进安全。另一方面,任何对开发者的约束都将不可避免成为事实上的监管工具,给企业带来合规负担。


尽管诸如“自我监管”等路径,能够在理论推动企业根据“成本-效益”分析自行采取适当的风险识别和应对举措。但在风险应对成本难以内化的情况下,有限的道德和声誉压力可能很难为真正有意义的风险管理提供足够的动力。尤其是鉴于AI开发者间已陷入日趋激烈的技术和市场竞争,早日发布更强大模型的需求几乎必然导致企业产生冒险倾向,忽视潜在的安全隐患。


此外,如果特朗普政府最终选择通过架空治理措施以优先实现降低企业合规成本的目标,安全事故(例如滥用、偏见和隐私泄露)也可能导致用户丧失信任,影响AI通过应用落地变现的能力。

04

追求“客观真理”与追求经济效益

之间的内在张力


《行动计划》强调AI系统的设计应考虑“言论自由”,避免意识形态的影响,并在使用时追求“客观真理”。为此,《行动计划》提议修订《NIST人工智能风险管理框架》,删除其中有关多样性、公平性和包容性(DEI)以及气候变化的表述。根据《行动计划》签署的行政命令则要求联邦机构仅能采购“优先考虑历史准确性、科学探究和客观性”且“保持中立和无党派立场”的模型。


即便不考虑一味强调“历史准确性”,将导致人类社会既有结构性不平等在AI中延续,《行动计划》所谓“去意识形态化”也并没有消除AI中已存在的意识形态——仅仅是将民主党强调的“进步”议题替换为共和党强调的保守主义价值诉求。换言之,《行动计划》无法真正中立地维护“言论自由”。相反,采购指南的修改赋予了联邦机构强大的杠杆,得以根据自身对“准确”和“客观”的解释偏好,选择符合本党派价值、立场的AI产品,实现对私人部门AI开发决策的干预。


更关键的冲突在于,要求企业基于“客观真理”开发AI,并不符合《行动计划》追求的经济效益。一是“客观真理”的定义本就模糊,AI开发者难以确定哪些内容构成意识形态偏见、哪些内容又符合“历史准确性、科学探究和客观性”的要求。因此,对“客观真理”潜在任意解读的不确定性,将提高企业的合规成本,这与《行动计划》给企业减负的目标背道而驰。


二是推动AI开发者去除DEI可能抬高开发成本。过去数年,确保AI与DEI等价值对齐,已在不同程度上成为行业最佳实践乃至监管要求。若美国联邦标准与之显著背离,开发者可能被迫调整防护策略,甚至重新设计与训练模型。与此同时,为满足出口需求,开发者甚至可能需要同时开发和维护两个“平行”模型。否则,仅按《行动计划》价值标准训练的模型,可能因不符进口国监管和社会价值而遭受抵制,从而削弱《行动计划》通过AI出口扩大国际影响力的努力。

05

支持开源与利用技术优势占领

国际市场之间的内在张力


如前文所述,《行动计划》及其配套行政命令支持美国向全球盟友和合作伙伴出口覆盖模型、算力、数据和应用的“全栈”AI技术体系,借此在国际市场建立稳固的技术与产业主导地位。与此同时,DeekSeek-R1的现象级传播展现了开源模式对美国AI优势地位的潜在威胁。作为回应,《行动计划》强调开源模型具有地缘战略价值,并提出联邦政府应为开源模型营造支持性的环境,包括提供适当的金融、基础设施和运营支持。

然而,开源的技术民主化本质与美国依赖排他性技术优势构建全球AI领导权的战略目标之间存在结构性冲突。开源模式旨在降低技术获取成本、促进广泛参与,但这种开放逻辑与美国通过技术独占来攫取经济与政治利益的模式本质上相互掣肘。在AI技术竞争的语境下,美国将在推动开源与维持技术垄断之间陷入两难:


一方面,若其开源模型在国际市场上优于竞争对手,将很大程度削弱模型层的技术壁垒,与依赖“全栈出口”巩固市场份额和扩大经济收益的战略目标相悖。


另一方面,若开源模型竞争力不足,则难以抵御竞争对手的开源模型在性价比方面的优势,后者可能迅速占领对成本敏感的市场,最终削弱美国AI的全球影响力。

06

结语


前文所列并非穷尽,《行动计划》中仍存在许多类似问题。例如,该计划威胁对不遵循联邦议程的州削减资金,这种滥用财政杠杆的做法可能加剧联邦与部分州之间的紧张关系。鉴于AI开发、应用方面处于领先地位的州多受民主党影响,此类对立难免削弱《行动计划》营造支持性创新环境的效果。

若将特朗普政府在《行动计划》之外的既有立场与行动纳入考量,则该计划的实施需要协调的冲突将更显著。比如,《行动计划》主张在联合国等国际组织层面扩大美国影响力,制约中国在国际AI发展和治理中的影响力。但在特朗普政府普遍质疑多边合作的背景下,这一目标的实现显然面临障碍。类似的,政府削减高等教育联邦拨款、限制外国学生赴美深造的做法,也与《行动计划》中强调专业技术人才与前沿科研的重要性相矛盾。


综上所述,《行动计划》虽然意在通过全方位举措,确立美国在AI领域的全球主导地位,但其内部子目标、具体行动间存在广泛且深刻的冲突,使这一宏伟蓝图更像是一套彼此掣肘、难以协调的政策构想合集若缺乏清晰的优先级排序,这些张力将不断消耗美国国内有限的政治与经济资源,削弱政策执行的可持续性,甚至使《行动计划》沦为空洞的政治口号。


作者 | 胡博翔

编审丨吴宗泽



关 于 我 们



清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。



新浪微博:@清华大学人工智能国际治理研究院

微信视频号:THU-AIIG

Bilibili:清华大学AIIG


来源 | 本文转载自“DateLaw”,点击“阅读原文”获取更多内容

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI
more
当AI从“炫技”走向实用,“自主可控”才真正站得住脚
智库观察丨“面面俱到”的代价:内在矛盾如何削弱特朗普政府AI战略的潜力?
比AirPods Max还轻?vivo首款MR头显来了,能干掉苹果Vision Pro?
AI Coding大佬聊透了:产品智能重要还是用户体验重要?答案让人意外
SIGGRAPH 2025 | NVIDIA 研究中心推动物理 AI 的发展
AI女友赛道半年吸金超5亿,头部玩家用户日聊75分钟
【报告】数据专题五:GenAI网页数据2025Q1报告(附PDF下载)
过度依赖AI的副作用?研究显示:医生技能退化、癌症辨识力下降20%
对话百度文库:不做大模型能直接做的事,能力积累换来竞争壁垒|AI产品Time
“智旅”亮剑.AI赋游:川投数科携手成都智算中心,以"三智一体"战略重塑巴蜀文旅新生态
Copyright © 2025 成都科技区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号