为什么美国政策和法律诉讼让实验室远离开源权重
从2023年起,拜登政府的一项行政命令,要求监管大规模模型训练,并让美国云厂商标记训练大模型的外国客户。
随后的规则草案,更是为云服务商设计了一套严密的报告系统。无论你如何看待,这都大大增加了合规成本,让开源前沿模型的风险陡增。
与此同时,美国在2022至2023年持续收紧了先进AI芯片和工具的出口管制,并在之后不断封堵漏洞。
这些规则虽未禁止美国公司在国内训练模型,却推高了跨境合作的风险。结果就是,可控的 API 模式成为了比开放权重更安全的选择。
法律层面,美国法院针对模型训练的版权诉讼也毫不手软,下令保存海量AI聊天记录,法律上的高度不确定性,让决策者更倾向于封闭模型。
开源许可协议的氛围也日趋保守。Meta的Llama许可证附加了商业限制条款,并非真正意义上的开源,这让其他西方公司很难在上面构建通用应用。
“这里要说明一下源码可用的概念:
你能看到模型的代码或权重,但法律上并不完全自由。许可证可能会限制你如何分发、商用或修改。这与Apache-2.0和MIT等真正开源协议提供的彻底自由,有本质区别。
最后,美国的电力系统在AI产业最需要的地方,恰恰供应紧张。数据中心的激增导致电价飙升,电网接入排队长龙,都让大规模训练的成本和时间变得难以控制。
为什么欧盟规则提高了信息披露和治理成本
欧盟的人工智能法案,已将通用人工智能(AGI)纳入了严格监管。
法案草案为模型的训练规模设定了明确的算力门槛,一旦超过,就必须承担额外的系统性风险责任。
模型提供方不仅要保留详尽的技术文档,还必须按照官方模板,提交一份足够详尽的训练数据摘要。这无疑增加了企业对潜在版权风险的担忧。
欧盟还推出了一套实践准则,来落实法案中关于透明度和版权的义务。无论是否自愿,大公司都不得不遵守,这让无条件、无限制的开源变得愈发困难。
能源问题更是雪上加霜。欧洲数据中心面临着高昂的电价和漫长的电网建设周期,这直接抬高了训练大型开源模型的盈亏平衡点。
中国的国家布局与务实策略使开源成为可能
中国多年前就开始构建全国性的算力基础设施,即东数西算工程。
通过国家枢纽整合公私数据中心,由国家承担了大部分固定成本。即便公布的数字有些乐观,但其背后的战略方向清晰而坚定。
由于前期建设超前,一些数据中心使用率不高,政府甚至计划将这些闲置算力联网转售,这为模型训练提供了大量低成本的计算资源。
再加上推动国产AI芯片产能翻倍的政策,一条对训练巨型模型极具成本优势的产业链已然成型。
更关键的是,中国的监管法规非常务实。相关法规只针对向公众提供服务的AI产品,比如公开的聊天机器人或API接口。
这意味着,如果你的模型仅供内部使用、学术研究或团队开发,那么这些严格的规定就完全不适用。
这种监管上的豁免,为中国的开发者们提供了巨大的创新空间。他们可以自由地训练和分享模型权重,而不必担心立即触发复杂的法规审查。
简而言之,对外服务必须合规备案,对内研究则不受束缚。这种区别对待,极大地释放了实验室的创造力。
技术路线的选择
阿里巴巴的Qwen模型采用Apache-2.0许可证,智谱的GLM模型则使用MIT许可证。
这些真正开放的协议,允许任何人自由修改、分发和商用,为中国开源模型的快速传播和应用奠定了基础,形成了滚雪球般的生态优势。
成本、能源与市场时机
当下,西方的模型训练面临着法律和电力这两座大山。美国的法律诉讼和欧盟的合规要求,都给开源决策者戴上了沉重的镣铐。
高昂的电价和缓慢的电网建设,进一步压缩了开源的利润空间。因此,对西方大厂而言,提供一个强大的闭源托管模型,是比发布开源权重更经济、更安全的选择。
中国的应对之道,是国家级的规模化和精准的政策协调。
国家资金降低了算力成本,监管机构将重心放在了末端应用而非前端研发,头部企业则慷慨地选择了最宽松的开源协议。
这套组合拳,解释了为何那些拥有数千亿甚至万亿参数、并能在真人测评中胜出的顶级开源模型,率先诞生于北京和上海。
格局如何被重塑
最终的结果是,中国的实验室训练出了参数规模惊人的专家混合(MoE)模型,用最友好的商业条款将其开源,并迅速占领了全球性能排行榜的顶端。
美国和欧盟的巨头们当然也能做出顶尖模型,但在政策、法律和成本的多重压力下,发布一个完全开源的前沿模型已然成为例外。
所以,西方最优秀的成果,往往被锁定在API接口之后,或是被严格的许可证所限制。这就是全球开源权重模型版图发生变化背后,最简单也最真实的原因。
结语
归根结底,是政策和能源塑造了今天的市场格局。
美国和欧盟的层层限制,将它们的科技巨头推向了封闭或半开放的道路。
而中国,通过打造国家级算力底座、实施灵活务实的监管,并拥抱真正的开源精神,让其顶尖模型能够毫无保留地走向世界,赢得先机。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!