最近翻了不少 6G 白皮书,几乎每家的封面或者第一章都印着同一个词——AI-Native。再往下翻,通常会看到一张架构图,从基站一路连到云,中间冒出“大模型”、“智能体”、“自治网络”这些字眼,有的厂商会直接画一个 LLM 蹲在核心网里调度业务。 听着很热闹。但如果你真去把 3GPP RAN 和 SA 几个工作组在 R19、R20 里通过的条款一条条捋一遍——尤其是 3 月刚 frozen 的 R19,以及现在正在跑的 R20——会发现一件略尴尬的事:3GPP 标准里的“AI-Native”,跟那些白皮书 PPT 里讲的,基本不是同一件事。 不是说 PPT 全在吹,也不是说 3GPP 太保守。是这两件事压根儿就在两个轨道上。 01 标准里的“AI-Native”到底指什么 讲一个最简单的事实:3GPP 不打算去标准化 AI 模型本身。这事不是我说的,是 Juan Montojo 说的——他是高通在 3GPP 的资深代表,也是空口 AI 工作项的报告人。他在今年 2 月 ETSI 那个 AI 大会上讲得很直白,3GPP 的 AI/ML 项目主要是用来改进特定领域的效率,目前没有规范模型本身的计划。 意思就是,标准要做的事是:协议层面把 AI 当成一等公民——有标准化的数据采集接口、有标准化的模型生命周期管理、有标准化的端到端协作机制。至于跑在这套机制上的是个 50 万参数的小 CNN,还是个 70 亿参数的 Transformer,标准基本不管。 这跟厂商 PPT 上的“AI-Native”完全不是一回事。PPT 上画的多半是结果——用户用自然语言对网络下指令、AI agent 自动协调带宽、大模型预测流量、智能体编排业务。这些事不是不会发生,但它们大多在标准化范围之外,属于厂商自己的产品空间。 3GPP 干的更像是修高速路。修好之后,谁开什么车走在上面,运营商和设备商自己定。 02 这件事走到哪一步了 时间线大致是这样:R18(2024 年中冻结)做了空口 AI 的 study item——这是 3GPP 第一次正经地把 AI 引进空口层,RAN1 主导,输出物是 TR 38.843,把 CSI 反馈、波束管理、定位三个用例的可行性、性能增益、协议影响都摸了一遍。这份文档现在是行业里所有讨论的起点。 R19 在今年 3 月的 TSG 全会上正式 frozen,从这之后这个版本只允许做错误修正和测试发现的问题修复,功能不再加了。AI 这一块,R19 做了三件具体的事:RAN1 把 CSI 预测(UE 侧单边模型)、波束管理、定位这几个用例做了 normative work——也就是正式写进协议;RAN2 启动了 AI/ML 移动性管理的研究,主要看网络触发的 L3 切换怎么用 AI 优化;RAN3 的工作集中在 AI/ML 辅助网络切片和 AI/ML 辅助覆盖与容量优化(CCO)。 R20 现在是正在跑的版本,也是个混合体——一半是 5G-Advanced 继续往前走,一半是 6G 的 study item 起步。截至今年 3 月的工作计划文件 SP-260360,光是 5G-A 这边在 R20 里就挂了 126 个 Work Item、74 个 Study Item 在并行做。6G 这边,SA1 的 TR 22.870(6G 用例和服务需求)已经在 3 月通过,RAN 那份 TR 38.914(6G 场景和需求)做到了 60%,SA2 的 6G 系统架构报告做到了 20%,里面拆出了 24 个关键议题。 R20 在 AI 上最值钱的一件事是 RAN 全会(2025 年 6 月,布拉格)通过的那个 Work Item,编号 RP-251870,叫 NRAIMLair_Ph2——也就是空口 AI 的第二阶段。它干的是双边模型的 CSI 压缩,具体到 “Case-0”:UE 侧跑 encoder,gNB 侧跑 decoder,先只压当前 slot 的空频域 CSI,暂不涉及时域。 听着抽象。但你要知道这件事在工程上的难度——两个不同厂商的设备,UE 来自 OPPO 或者三星,基站来自爱立信或者华为,各跑半个模型,怎么配对、怎么协同训练、版本不一致怎么 fallback、模型更新怎么 OTA、KPI 异常时怎么回滚——所有这些都得在协议层标清楚。这是空口 AI 真正第一次涉及多厂商协作的硬骨头。 剩下一条线,是 SA5 和 SA2 主导的网络管理 AI。这条线起步最早,R16 就把 NWDAF 引进了 5G 核心网,R17、R18 一直在加分析能力。R18 在 SA5 那边出了 TS 28.105,把 AI 模型在网管侧的生命周期管理标进了规范——onboarding、deployment、KPI 监控、告警。R19 通过 TR 28.908 补完了闭环 LCM 框架,从训练、验证、部署、推理、监控到再训练。R20 这边在搞核心网对 AI/ML 的增强支持,SA2 在做架构层面的工作。 R21——也就是 6G 的第一个 normative 版本——具体时间线还没定,要等到今年 6 月的 plenary 才会拍。ASN.1 冻结最早不会早于 2029 年 3 月,商用窗口在 2030 年左右。这是 3GPP 自己讲的节奏。 03 那些具体的 AI 条款,在解什么问题 把 R18 起步、R19 做完、R20 在跑的这些用例排在一起看,会发现一个共同点:它们都是 PHY 层或者 MAC 层的具体功能增强,跟“大模型”几乎没有关系。 CSI 反馈这块最热闹。Massive MIMO 场景下,几十到上百个天线端口,UE 把信道状态量化反馈给基站的开销大到压不住。R18 给出的方向是两条:UE 侧单边模型做 CSI 预测,把信道老化造成的延迟补回来;两侧各跑一半模型做 CSI 压缩,把反馈量级降下来。R19 把 CSI 预测做成了正式规范——单边相对简单,工程上能落。两侧 CSI 压缩的难点不在模型,在于双方厂商得有匹配的版本、训练数据要对齐、不匹配的时候得有降级方案。R20 那份 RP-251870 就是冲这件事去的。 波束管理走得相对顺。毫米波场景下波束又窄又多,穷举搜索代价高、时延也高。R18 研究、R19 规范化干了两件事:空间维度上拿一部分波束的测量结果预测整个集合的最优解;时间维度上拿历史数据预测下一时刻的最优波束。仿真结果是 top beam pair 的预测准确率能做到 50%–90%,top-2 能到 65% 以上。对设备商来说这是有商业价值的数字——直接关系到毫米波部署能不能用起来。 定位是第三个 PHY 层用例,重点在 NLOS(非视距)环境下的精度增强。两条路并行——直接 AI 定位(类似指纹法)、AI 辅助定位(把模型输出当作新的测量量或者对现有测量量的增强)。这块对工业互联网、室内导航、车路协同的价值最直接,也是 R20 在继续推进的方向之一。 RAN3 那条线低调但扎实。R17 启动、R18 完成规范、R19 在扩展,围绕负载均衡、移动性优化、网络节能、网络切片这些场景把 AI 嵌进 NG-RAN。这部分工作的输出是 TR 37.817 那个 RAN 智能化框架——Data Collection、Model Training、Model Inference、Actor 这几块功能怎么连——R19 在这个框架基础上把网络切片和 CCO 两个新用例加进了 Work Item。 把所有这些列下来,有个细节值得注意:这些模型的尺寸,普遍是百万到千万参数级别。不是几十亿,更不是几百亿。原因很简单——空口的处理预算是几十毫秒级,基站的 baseband 是有限的硬件资源,你没法在 PHY 层塞一个 Transformer 进去做实时推理。 04 跟“大模型上 6G”差在哪儿 讲到这儿,前面那个核心问题就比较清楚了。 最关键的一条,是 R20 6G 研究范围里那句话:设计将确保有不依赖 AI 的回退操作。也就是任何 AI 增强都必须有一个非 AI 的兜底通路。这条原则一旦写进基线,就把“网络的核心调度逻辑跑在大模型上”这种激进设计提前否掉了——你不能把网络的兜底交给一个可能崩、可能漂、还得持续训练的东西。 第二个跟 PPT 派最大的分歧,是互操作性。3GPP 的存在意义就是让不同厂商的设备能互通。任何进标准的 AI 机制,都必须是厂商中立的——模型可以差异化,但模型怎么部署、怎么交互、怎么监控,得有大家都遵守的协议。这就是为什么 R20 的双边 CSI 压缩 WI 要单拎出来——不是因为模型本身难,而是两个厂商的模型要能在空口上配对工作,这件事在工程上极难。 但 3GPP 不标模型这件事,并不意味着厂商不能搞自家大模型。这是个灰色地带。运营商完全可以在自家 OSS/BSS 里部署一个 LLM agent,通过标准化的 NWDAF 接口拿网络数据、调网管能力——这件事完全成立,标准管不着。所以你会看到爱立信、诺基亚、中兴、华为这些公司一边在 3GPP 投票,一边在自家平台上做“网络大模型”产品。两条线不冲突,只是不该混着讲。 提一下 SA1 那份 TR 22.870——3 月刚通过的那份 6G 服务需求报告。里面确实出现了“能解释用户意图并动态编排服务的 network AI agent”这类描述,听起来跟 PPT 派讲的几乎一样。但 SA1 的需求报告是目标层——它告诉系统架构组、RAN 组,6G 系统未来需要支撑哪些场景。怎么实现、用什么模型、跑在哪一层,是后面 SA2、RAN1/2/3 在 R20 study、R21 normative 阶段慢慢往下铺的事。中间隔着大概三年半的实际工作,以及 6 月份要定的 R21 整体时间线。 05 “AI-Native 6G”到底算不算真命题 按 3GPP 的口径,算。按市场部的口径,不算。 如果你把“AI-Native”定义成“AI 是协议的一等公民,有标准化的数据通路和生命周期管理,PHY 层关键功能由 AI 模型承担”——这件事 6G 是 AI-Native 的,而且从 R20 立项开始已经在认真往前推。 如果你把“AI-Native”定义成“大模型驻网、智能体调度一切、自然语言开通业务”——这件事在 3GPP 标准里目前没有,可见的未来里也不会有。不是它不重要,是它属于厂商创新的空间,不属于通用标准的范畴。 接下来这一两年值得看的事其实不多,但分量都不轻。 一个是 6 月的 plenary——R21 的时间线会在那次会议上定。它会决定 6G 第一个 normative 版本到底什么时候出、IMT-2030 的提交窗口怎么排。 另一个是双边模型的互操作能不能真跑通。R20 那个 Case-0 听着只是 CSI 压缩,但它实际上是行业第一次试验“不同厂商各跑半个 AI 模型,通过标准协议互通”。这件事如果跑成了,后续波束管理、定位、移动性管理都可以照搬这套范式;跑不成,空口 AI 这条线就得退回到单边模型的舒适区。 第三个是 LCM Profile 会不会被广泛采纳。模型格式、热切换、回滚机制如果真在 R20 末期被标准化,未来 AI 模型在网络里就更像一个“可调度的网元”,而不是各家闭门造车。这件事对运营商是好事,对设备商的差异化空间是一种挤压——这种张力会在 R21 normative 阶段被持续放大。 最后顺手说一句给做边缘的同行听的:3GPP 把 AI 模型生命周期管理标准化这件事,对边缘 AI 平台的接口设计是有间接影响的——模型在 gNB、UE、MEC 节点之间怎么部署、怎么协作、怎么回退,这套机制一旦在 6G 里跑通,未来边缘 AI 平台的架构很可能要往这套范式上靠。还不到需要紧张的程度,但值得心里有根弦。 至于“6G AI-Native”这四个字到底是不是 PPT,我自己的判断大概是这样:它在被认真做,但做的不是 PPT 上画的那件事。真正在标的事更琐碎、更工程化、更不性感——而这种“琐碎而工程化”的东西,往往才是这个行业最后真正定型的样子。