破界重构——联发科的AI新生态战略(三):算力狂飙下的芯片架构革命与能效突围

半导体产业研究 2025-08-04 08:00
资讯配图


【编者按】

本文深度剖析联发科在AI时代的战略转型之路。从移动芯片龙头到跨界AI基础设施提供商,联发科通过布局边缘计算、车用电子、云端ASIC三大领域,构建端到云全栈能力。文章聚焦其与NVIDIA的深度合作(如NVLink Fusion超算平台)、2nm先进制程落地、高速SerDes3.5D封装技术突破,揭示其如何以技术整合优势抢占AI算力高地。通过全景式解读,为读者呈现联发科从消费电子向高附加值赛道跃迁的关键路径,为半导体从业者及投资者提供前瞻洞察。欢迎感兴趣的读者转发与关注!

资讯配图
在未来的几年里,人工智能半导体领域的演进将成为衡量全球生成式人工智能(Generative AI)进展与采纳程度的关键指标。
资讯配图
生成式人工智能(Generative AI)的飞速演进正在推动对计算性能前所未有的需求。从仅需约1 ExaFLOP训练计算量的AlexNet,到计算量(FLOPs)增长50,000倍的GPT-3,再到如今拥有1.8万亿参数、计算量又增加数百倍的GPT-4,AI模型训练已进入ZettaFLOP时代——并预计在不久的将来达到YottaFLOP级别。
这种指数级增长不仅体现在神经网络参数数量和浮点运算次数(FLOPs)的激增上,也体现在对数据中心计算能力、通信带宽、内存和存储架构造成的巨大压力上。从AlexNet的6000万个参数,到GPT-3的1750亿参数,再到如今GPT-4的1.8万亿参数,现代AI的发展正从算法创新转向算力规模的军备竞赛。
这股计算浪潮正在加速对先进芯片设计、封装技术和能效的需求,从根本上重新定义将支撑下一代AI系统的硬件骨干和基础设施策略。
资讯配图
生成式人工智能(GAI)的迅猛发展不仅在模型层面推动着计算需求的飙升,也正在深刻重塑通信与连接技术的角色。从边缘设备到云端服务器,AI系统日益依赖高速、低延迟、高可靠的互连技术,以实现无缝的数据交换和协同计算。
本演示着重阐述了一个完整的通信链条:边缘端的AI实现需要有效的有线及无线互连模块来连接到更强大的计算平台。边缘与云端之间的数据传输依赖于异构通信技术的整合,包括5G/6G、Wi-Fi 6/7/8、以太网和光纤。
随着AI工作负载规模的扩大和对实时响应性需求的增加,通信链路已不再仅仅是数据传输通道——它们已成为关键的性能瓶颈。在GAI时代,需要的是贯穿从端点到网络核心再到云端的系统级通信架构升级,以实现真正融合且智能化的AI基础设施。
资讯配图
随着我们步入生成式人工智能(GAI)时代,世界面临着一个日益增长的担忧:能源消耗的爆炸性增长。数据显示,仅AI模型所需的算力,就可能在未来几年内超过全球总发电量。同时,随着带宽需求的飙升,有线数据传输已占数据中心能源消耗的近一半。
然而,全球能源供应每年仅增长约2%,这远远不足以支撑计算和通信基础设施的快速扩张。根据趋势预测,在计算和内存增长的驱动下,当前能源需求的增长斜率可能超过全球能源供应的极限,尤其是在AI系统超越1000 ZIPs(每秒Zetta级整数运算)时。在此类高性能场景下,系统级能耗呈指数级上升。
这发出了一个严峻的警告:若没有能效的根本性突破,人类可能无法持续享受生成式AI带来的便利与创新。因此,开发高能效的系统架构、低功耗的内存访问以及可持续的通信技术,已成为未来AI计算的核心挑战。
资讯配图
资讯配图
生成式人工智能(GAI)的快速扩张引发了市场对高性能计算(HPC)芯片,尤其是在数据中心领域,前所未有的需求激增。为了应对由海量模型规模和密集数据交换驱动的日益增长的工作负载,AI专用ASIC(专用集成电路)必须在多个维度上同步升级——包括计算性能、互连带宽、内存架构和先进封装。
联发科(MediaTek, MTK)近期展示了其下一代数据中心AI芯片的原型架构,强调了系统级进步的五个关键领域:
1.计算
2.向更先进的工艺节点(例如从2纳米到A16级别)过渡,以提高能效和晶体管密度。
3.互连
4.将SerDes(串行器/解串器)从224G演进到448G,并采用共封装光学(Co-Packaged Optics, CPO)技术,以实现更高带宽和更低延迟。
5.先进封装
6.从传统的2.5D架构向3.5D架构演进,并支持扩大光罩尺寸(reticle expansion),以在单个封装内集成多个大型裸片(die)。
7.内存
8.从标准高带宽内存(HBM)升级到定制化HBM和内存内数字计算(Digital Compute-In-Memory, CIM)设计,以应对海量AI模型对带宽和容量的日益增长的需求。
9.电源管理
10.集成先进的供电和配电系统,以管理高密度、多裸片配置下的散热和能效。
本质上,这种整体系统设计说明了GAI对芯片架构提出的变革性挑战。它也凸显了晶圆制造、封装集成以及光电协同设计作为AI驱动未来的基础支柱日益增长的重要性。
资讯配图
在生成式AI的驱动下,数据中心和边缘设备对计算硬件的需求已出现显著分化:
在数据中心层面,GPU和TPU等AI加速器现在可支持高达576GB的内存,利用HBM3e技术提供惊人的16TB/s内存带宽。这些处理器实现了超过40,000 TOPS(FP4)的AI计算性能,并具备7.2TB/s的互连带宽用于组件级协同。其物理设计通常采用双芯片(chiplet)配置(每个858mm²),热设计功耗(TDP)高达1400W,需要液冷系统来维持性能。
形成鲜明对比的是,移动AI SoC(系统级芯片)体积紧凑且能效极高(约1W),但在硬件资源上受到严重限制。它们通常仅提供24GB内存、85GB/s的内存带宽和约50 TOPS的AI计算能力。这与其数据中心对应物相比,内存少24倍,带宽低188倍,计算能力弱800倍。此外,由于严格的尺寸、功耗和散热限制,移动SoC缺乏水平和垂直扩展能力。
这种比较突显了不同AI平台在设计策略和资源配置上的根本差异。它也强调了在能效、封装和系统集成方面取得突破以弥合差距的迫切需求——从而实现AI在云环境和边缘环境广泛且可扩展的部署。
资讯配图
在AI计算发展的当前轨迹中,计算性能和能效(每瓦特TFLOP/s)已成为评估系统实用性和可持续性的关键指标。
根据所呈现的信息,人脑在计算效率上远超所有现有人工系统——据估计,它能够执行相当于百亿亿次(exascale)的工作负载(1 exaFLOP),而仅消耗约20瓦的功率。这相当于超过50,000 TFLOP/s/W 的惊人效率,这一水平仍比当今的AI芯片高出数个数量级。
目前大多数AI加速器的运行效率在GFLOP/s/W到较低的TFLOP/s/W水平,与人脑的等效效率相比相差数千倍。这一差距突显了现代AI计算系统在能效方面存在巨大的提升空间。
如果AI要变得无处不在且可持续,未来的架构必须以大脑的超高效设计为基准——将“以更少能量提供更多计算”作为根本的设计目标。
资讯配图

相关阅读

联发科智联未来的AI时代全景图(一):从边缘到云端的全面AI转型与战略布局
联发科智联未来的AI时代全景图(二):双轨并进,NVLink Fusion与自研ASIC共拓AI芯
联发科智联未来的AI时代全景图(三):高速接口与封装革命驱动AI基础设施跃升
联发科智联未来的AI时代全景图(四):技术突破与生态扩张
破界重构——联发科的AI新生态战略(一):从SoC巨头到AI全栈方案商
破界重构——联发科的AI新生态战略(二):边缘智变与应用图景

*原文媒体:Semi Version

*原文链接:


https://tspasemiconductor.substack.com/p/mediatek-enabling-generative-ai-innovations



资讯配图

芯启未来,智创生态

湾芯展2025与您相约!

资讯配图

资讯配图

资讯配图

资讯配图
资讯配图
资讯配图
资讯配图

声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
AI 芯片
more
ACM MM 2025 | 小红书AIGC团队提出风格迁移加速算法STD
工业AI“真打实练”的赛场来了! “中控杯”工业AI创新挑战赛火热开启!
剑指“美国版 DeepSeek!”Ai2 科学家 Nathan Lambert 最新访谈:剖析 RLVR、激辩智能体与后训练
高德地图「史诗级更新」!全面拥抱AI,地图也能「思考」了
云厂情报大览:阿里腾讯云生态团队「微软味」变浓;SaaS独角兽小鹅通历经「生死劫」;微软「AI 特战队」GBB 亚太团队大调整
今年 CJ,AI 成了游戏产业的「必答题」
为了让你提前下班  火山引擎带来最新AI“全家桶”
高德地图2025正式发布:全球首个基于地图的AI原生应用
a16z前合伙人Balaji的10个最新思考:AI正走向去中心化,关于AI经济学、安全性和技术范式的十个核心思想
“开箱即用”的AI长什么样?我们在WAIC找到了样本|甲子光年
Copyright © 2025 成都科技区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号