AI人工智能以前所未有的速度在全球科技领域掀起变革浪潮,半导体产业竞争日趋白热化。在这场全球科技竞赛中,AI强势推动AI服务器产业蓬勃兴起,并使之逐步成为半导体领域的关键战场,吸引众多大厂入局。与此同时,随着技术演进与市场需求变化,AI服务器产业悄然迎来新一轮改变。
AI服务器强势成长,产业链公司有哪些?
AI服务器是专为运行人工智能算法和模型设计的硬件设备,通过异构计算架构(CPU+GPU/FPGA/ASIC)实现高性能并行处理。受益于AI驱动,AI服务器产业增长势头强劲。
全球市场研究机构TrendForce集邦咨询最新调查显示,2025年AI服务器出货年增长预计将达24.1%,在整体服务器占比为14.8%。2026年因来自云端服务业者(CSP)、主权云的需求持续稳健,对GPU、ASIC拉货动能将有所提升,加上AI推理应用蓬勃发展,预计全球AI服务器出货量将年增20%以上,占整体服务器比重上升至17%。
AI服务器产业链包括上游零部件、中游整合组装与下游应用三大环节,涉及众多产业链公司。
上游零部件——包含AI芯片、存储器以及其他零部件等。
AI芯片指的是专为人工智能算法设计的硬件加速器,其核心是突破传统CPU的算力瓶颈。按照技术分类,AI芯片主要分为GPU、FPGA、ASIC等。在AI服务器领域,多核CPU负责任务调度,GPU提供算力核心,FPGA/ASIC支持定制化加速。AI芯片代表厂商包括英伟达、AMD、华为海思、海光、寒武纪、壁仞科技、平头哥等。

存储器领域,大容量DDR4/DDR5内存和高速SSD满足数据吞吐需求,HBM提升内存带宽、降低功耗、优化空间占用,显著增强了AI服务器的性能与能效,代表厂商包括三星、SK海力士、美光等。
其他零部件包括网络、PCB、电源、散热等,其中液冷散热技术可以解决多GPU高功耗散热问题,代表厂商包括Cooler Master(酷冷至尊)、AVC(奇鋐科技)、英维克、维谛技术等。
中游整合组装——将芯片组装进服务器硬件中,并增加必要的网络、存储设备,形成完整的AI服务器解决方案,分为ODM厂商,如广达、工业富联、英业达、纬创、Supermicro;以及品牌服务器厂商,如戴尔、HPE、甲骨文、惠普、联想、浪潮信息、华为、新华三、超聚变等。

下游应用领域——包括互联网厂商、运营商、通信、政府、制造业、教育、金融与医疗等。
AI服务器产业迎巨变时刻,厂商如何应对?
此前,AI大模型强势推动之下,AI芯片市场持续供不应求,引发晶圆代工、先进封装厂商持续扩产。如今,随着产能陆续释放,芯片供应问题得到极大改善,不再是制约AI服务器发展的因素。与此同时,围绕ASIC、液冷散热、Nearline SSD等领域,AI服务器产业开启新一轮变革。
1
ASIC研发潮来袭
当前全球AI芯片市场由英伟达、AMD等公司推出的GPU产品主导,随着AI服务器需求快速扩张,全球大型云端服务业者(CSP)正加速自研AI ASIC。
谷歌是自研芯片布局比例较高的厂商,其针对AI推理用的TPU v6e已于上半年逐步放量并成为主流。此外,谷歌与博通合作TPU v7p(Ironwood),锁定训练应用,预计于2026年逐步放量,将接替TPU v6e(Trillium)的核心AI加速平台。
AWS(亚马逊云科技)自研芯片目前以Trainium v2为主力平台,AWS已启动不同版本的Trainium v3开发,预计于2026年陆续量产。
Meta成功部署首款自研AI加速器MTIA后,正与Broadcom共同开发下一代MTIA v2,预计于2025年第四季量产。Microsoft则规划由GUC协助量产Maia v2,预计于2026年上半年启动。
除了CSP之外,芯片巨头英特尔近期也正式进军ASIC芯片领域。英特尔宣布成立“中央工程集团”,整合内部设计与制程资源,并启动ASIC与设计服务业务。外界普遍认为,这是英特尔继CPU、GPU与代工之后的新运营支柱,目标在于切入快速成长的客制化芯片市场。
与此同时,华为、昆仑芯、寒武纪、平头哥等一众厂商同样积极布局ASIC市场,ASIC研发潮不断兴起,未来ASIC市占率有望不断攀升。
2
企业级SSD需求急升
TrendForce集邦咨询指出,未来两年AI基础设施的建置重心将更偏向支持高效能的推理(Inference)服务,在传统大容量HDD严重供不应求的情况下,CSP业者纷纷转向NAND Flash供应商寻求解方,催生专为AI推理设计的Nearline SSD,以满足市场的迫切需求。
各大NAND Flash供应商正加速Nearline QLC NAND Flash产品的验证与导入。QLC技术能以更低的成本储存更多资料,成为满足大容量需求的关键。此外,供应商也正扩大QLC SSD的产出,预计2026年将逐步提高产能利用率。随着Inference AI应用扩张,预计这股需求热潮将延续到2027年,因此2026年企业级SSD的供应将呈吃紧状态。
厂商方面,今年10月SK海力士对外展示下一代NAND闪存产品战略,其中,AIN D(Density)是一款旨在以低功耗、低成本实现海量数据存储的高容量解决方案,特别适用于AI数据的存储。相较于现有基于QLC的TB(太字节)级的SSD,AIN D可将存储容量提升至最高PB(拍字节)级,同时兼顾SSD的高速性能与HDD的经济性,成为一种中间层存储产品。
3
液冷散热成为AI服务器新选择
随着AI大模型发展,AI芯片性能持续提升的同时,功耗也在以每代1.5-2倍的速度增长。业界透露,英伟达B200单颗芯片功耗已经上升至1000W,当AI芯片功耗超过700W时,传统的风冷效果将大幅降低,无法满足需求,液冷技术凭借高效散热与节能优势,逐渐成为AI应用的新选择。
液冷散热主要分为直接式和间接式,间接式通过冷板与发热部件接触,液体在冷板内流通,进而带走热量,是当前主流的液冷散热技术;直接式是指液体与发热部件直接接触,又可以分为浸没式和喷淋式。
在今年10月召开的2025年OCP全球峰会上,液冷已成为新AI机架的默认配置,多家厂商展示了新一代液冷技术方案。
纬颖携手纬创展示了新一代AI服务器以及先进直接液冷(Direct Liquid Cooling)解决方案。纬颖与纬创是首批提供NVIDIA GB300 NVL72系统的合作伙伴之一。该款液冷、机柜级AI系统,搭载72颗NVIDIA Blackwell Ultra GPU,并配备NVIDIA ConnectX-8 800Gb/s SuperNICs,为推理模型提供强大的运算性能。
Frore Systems发布了面向AI数据中心的创新方案:LiquidJet™液冷板,具备性能提升与成本优化的特点,能降低GPU温度,每秒处理更多AI令牌,消除热降频;同时TCO更低、PUE更优,将冷却开销转化为竞争优势。
AMD在OCP期间公开展示了其面向人工智能与数据中心市场的全新“Helios”机架级平台,引入了快速断开式液冷系统,可在不拆卸主机组件的情况下进行维护,从而提高数据中心的运行效率。
除此之外,在近期举办的全球技术大会(GTC 2025)上,英伟达首次曝光了Rubin服务器和交换机液冷架构,与以往架构相比,Rubin架构的液冷设计更加复杂和紧凑,实现了100%的液冷覆盖。
业界指出,随着AI技术不断发展,AI服务器液冷需求也将不断爆发,未来将有更多高效、节能、智能的液冷解决方案出现。
随着各大厂商纷纷加大研发投入、优化产品布局,AI服务器市场的竞争将愈发激烈。在未来市场的风云变幻中,谁能抓住机遇,推动AI服务器以及整个AI产业持续发展?我们拭目以待。