
2025世界人工智能大会于7月26日至28日在上海盛大召开,AI Native Cloud服务商GMI Cloud在此次大会上精彩亮相。作为全球六大Reference Platform NVIDIA Cloud Partner之一,GMI Cloud携全栈产品矩阵、创新工具及前沿技术成果,在H1核心技术馆A122展位及H4 FUTURE TECH创新企业展区,通过产品展示、技术体验、专家分享、跨界互动等多元形式,与全球开发者、AI企业及生态伙伴共探AI算力新未来,成为展会焦点之一。
在本次大会上,GMI Cloud集中展示了三大核心产品,为观众打造了沉浸式的AI基础设施交互体验。GMI Cloud作为一朵“AI Native Cloud”,凭借全球布局的数据中心与NVIDIA的深度合作,提供基于H200、B200等高端芯片的GPU云服务,融合灵活公有云与定制化私有云,能为企业量身打造安全高效的AI基础设施。此外,Cluster Engine作为GMI Cloud自主研发的云管理系统,通过优化资源调度,提供了灵活且稳定的集群管理解决方案,让算力资源调配更加敏捷高效。Inference Engine则是GMI Cloud全栈自研的推理引擎云平台,依托芯片级算子优化与动态负载调度,实现了AI推理性能倍增和弹性伸缩,为AI业务爆发提供了坚实支撑。
在WAIC 2025上,GMI Cloud展位特别设置的技术体验区人气高涨,其两大核心平台及工具直击AI应用构建痛点,让参会者亲身体验到AI应用构建的新可能。其中,刚上线的“AI应用构建成本计算器”备受关注,开发者通过该工具,一键即可获取构建专属AI Agent或海外低成本AI应用的时间成本与经济成本测算结果,2分钟内就能明晰投入方案,让全球AI应用开发规划更精准。另一大亮点是Inference Engine实战体验,参会者无需复杂流程,现场就能借助该引擎在平台上调用热门大模型API,感受在海外快速落地AI想法的高效流程,其更高吞吐、更高稳定性的特点,让从创意到应用的转化更顺畅,助力开发者加速AI应用推向全球市场。

值得一提的是,GMI Cloud的合作伙伴DataDirect Networks (DDN)也在其展位共同展出。DDN是总部位于美国的存储及数据管理解决方案提供商,服务全球超11,000家企业客户,涵盖AI与数据分析等多个领域,其A³I存储系列、ES400X3等产品广泛应用于大模型训练等场景。双方携手推出的联合AI基础设施解决方案,GMI Cloud集成DDN高性能存储系统,具备动态可扩展性与可定制架构,为从模型训练到实时推理的严苛工作负载提供支撑,助力提升AI研发效率。

在跨界联动方面,GMI Cloud与小红书携手推出的趣味打卡活动为展会注入别样活力,现场参与打卡互动的参会者可获得WAIC 2025专属拍立得照片,定格精彩瞬间。同时,GMI Cloud技术VP Yujing Qian登上世博展览馆H4区域的小红书舞台,带来《混迹硅谷10年,AI颠覆了我的Coding习惯》的即兴分享,结合自身在硅谷的十年技术研发经历,分享了 AI 技术如何重塑程序员的编码思维与工作方式,引发众多开发者共鸣。
在36氪×WAIC 2025直播间,36氪研究院院长邹萍与GMI Cloud亚太区总裁King Cui展开深度对话。据悉,36氪研究院在7月26日发布的《2025年中国AI应用出海企业发展需求洞察报告》中,大量引用了GMI Cloud在AI基础设施领域的技术优势和指导方案,包括其自研的Cluster Engine与Inference Engine在资源调度、推理性能优化等方面的突破性成果,以及全球数据中心网络支撑下的高效算力服务能力。基于这些洞察与实践,双方从技术赋能商业的视角,剖析了AI应用出海的市场现状、核心壁垒及商业变现路径,为行业提供了有技术支撑的市场分析,这场“技术实践+行业研究”的对话具备双重权威性,引发广泛关注。
在专家分享方面,GMI Cloud的技术实力与行业洞察得到充分展现。7月27日下午,亚太区总裁King Cui在世博展览馆H4区域的FUTURE TECH舞台围绕Inference Engine展开深度分享,拆解其高并发、低延迟、动态扩缩容能力如何支撑全球AI业务爆发,解析了自研推理平台的架构设计、跨区域合规部署及软硬协同优化实践,揭秘了推理成本与效率指数级提升的关键路径。
7月28日上午,GMI Cloud技术VP Yujing Qian则在OpenTalk区域聚焦《GMI Cloud Inference Engine 在全球范围内的大规模集群调度和优化》主题内容,深入拆解热门大模型推理优化架构逻辑与技术实践,详解基于开源的P/D分离架构设计、性能变化及优化作用,探讨了KVCache池化策略如何通过访存优化提升推理效率。
GMI Cloud由Google X的AI专家与硅谷精英共同创立,拥有遍布全球的数据中心,为企业AI应用提供最新、最优的GPU云服务,服务对象涵盖全球新创公司、研究机构和大型企业,致力于提供稳定安全、高效经济的AI云服务解决方案。依托高稳定性的技术架构、强大的GPU供应链以及丰富的GPU产品阵容,GMI Cloud确保企业客户在高度数据安全与计算效能的基础上,高效低成本完成AI落地。通过自研“Cluster Engine”“Inference Engine”两大云引擎平台,GMI Cloud完成了从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座,作为推动通用人工智能(AGI)未来发展的重要力量,持续在AI基础设施领域引领创新。
此次WAIC 2025之行,GMI Cloud充分展示了其在AI基础设施领域的硬实力,通过与全球行业伙伴的深入交流与互动,进一步巩固了其行业地位。未来,GMI Cloud将继续深耕AI基建领域,为全球AI发展贡献更多力量。




