人工智能(AI)浪潮席卷全球,计算架构的演进愈发成为产业关注焦点。近日,全球AI芯片巨头英伟达(NVIDIA)在今年的RISC-V中国峰会正式宣布,其核心的CUDA计算平台将全面支持RISC-V架构。
长期以来,英伟达的CUDA软件平台一直是其GPU在AI加速计算领域的核心竞争力,但该软件平台部署此前更多应用于x86和Arm架构的CPU。
英伟达副总裁Frans Sijstermans表示,英伟达的CUDA主要由Toolkit(工具箱)和驱动器两大部分组成。其中,Toolkit如同一个强大的编译器,具备出色的编译功能。目前,针对RISC-V架构的Toolkit移植工作正在积极推进中,同时,相关的应用软件、第三方软件以及操作系统(OS)也需同步进行移植。
他以PyTorch为例,阐述了将特定应用模块、第三方软件和CUDA库代码映射到目标RISC-V CPU上的复杂过程,并指出英伟达正重点攻坚CUDA内核模式驱动(KMD)和用户模式驱动(UMD)在RISC-V上的适配。
Sijstermans坦言,CUDA移植面临的关键挑战之一在于高性能RISC-V CPU板卡的可用性。为了实现GPU与CPU之间高效的数据共享和复制,英伟达需要支持统一虚拟内存(Unified Virtual Memory)的RISC-V SoC。尽管英伟达已与如阿里巴巴达摩院C920这样的RISC-V CPU进行开发层面的合作,但目前市面上尚未出现完全支持已获批的RVA23规范(RISC-V最新的重要规范之一)的统一虚拟内存RISC-V SoC。
总体而言,英伟达正与生态伙伴紧密合作,期望共同解决这些系统层面的兼容性问题,并推出符合服务器平台规范和Linux操作系统的RISC-V标准版CUDA。
Sijstermans暗示,在英伟达未来基于NVLink Fusion的系统级架构设计中,RISC-V架构将扮演重要角色。NVLink作为英伟达GPU间高速互联的关键组件,其与CPU、GPU的深度融合将打造更高效的数据中心。未来,RISC-V有望成为NVLink Fusion框架下控制路径的一部分,甚至演变为英伟达机架架构中的定制加速器或定制CPU,进一步深化其在整个系统中的地位。
英伟达强调,其业务核心是加速计算,而非绑定特定CPU架构。Sijstermans明确表示:“无论是x86、Arm或是RISC-V,我们其实都希望能够兼容。关键在于要让用户、开发者都能够有自己的选择。” CUDA全面支持RISC-V,正是英伟达开放生态策略的体现,旨在通过提供全套软硬件解决方案,助力RISC-V服务器借助英伟达通信处理器实现加速,最终实现从CUDA软件到硬件的无缝过渡。
据悉,英伟达CUDA全面支持RISC-V,意味着后者将有机会深度融入全球最主流的AI加速计算生态。这不仅将显著提升RISC-V在服务器和数据中心等高性能应用领域的竞争力,也可能吸引更多芯片设计公司和开发者投入RISC-V阵营,形成良性循环。
值得注意的是,据RISC-V国际基金会最新数据,2024年全球基于RISC-V指令集的芯片出货量已有数百亿颗,其中中国就贡献了RISC-V芯片出货量的一半以上,在高性能计算、人工智能、服务器、汽车电子等领域均取得了显著突破。
近期,工信部电子信息司副司长史惠康基于RISC-V发展现状提出三点呼吁:一是深化协同,共筑繁荣生态;二是加速转化,驱动规模应用。一方面持续巩固和扩大RISC-V在物联网、工业控制、边缘计算等相关领域的领先优势和市场渗透率,另一方面要全力推动RISC-V在高性能计算、数据中心服务器、人工智能加速器、智能网联汽车等高价值领域实现规模化商业落地,真正让RISC-V成为中国科技创新的强大引擎;三是坚定开放,引领全球协作。
就在7月16日,上海也宣布筹建开放计算系统研究院,并发布了上海RISC-V生态街区,这标志着中国在RISC-V生态建设和产业聚集方面迈出了重要一步,将为国内RISC-V产业发展提供更坚实的平台。


发现“分享”和“赞”了吗,戳我看看吧