突破瓶颈,中国科研团队模拟存算一体芯片研发刷新计算精度纪录

全球半导体观察 2025-10-13 13:04


模拟计算作为一种不同于传统数字计算的范式,可直接利用物理定律进行运算,在能效和速度方面具备明显优势,因此近年来在AI硬件领域受到广泛关注。


近日,南京大学物理学院缪峰教授和梁世军教授团队提出了一种高精度模拟计算方案。该方案将模拟计算权重的实现方式从不稳定、易受环境干扰的物理参数(例如器件电阻)转向高度稳定的器件几何尺寸比,突破了限制模拟计算精度的瓶颈。


据介绍,南京大学研发团队设计并验证了一款基于标准CMOS工艺的模拟存内计算芯片。结合权值重映射技术,该芯片在并行向量矩阵乘法运算中实现了仅0.101%的均方根误差,创下了模拟向量-矩阵乘法运算精度的最高纪录。


该芯片在-78.5℃和180℃的极端环境下依然能稳定运行,矩阵计算的均方根误差分别维持在0.155%和0.130%的水平。此外,研究团队也在强磁场环境中对芯片输出电流进行了测量。结果显示,芯片核心单元的输出电流相较于无磁场条件的变化不超过0.21%。(文章来源:南京大学)


 





声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
芯片
more
突破瓶颈,中国科研团队模拟存算一体芯片研发刷新计算精度纪录
【半导体】芯片设备,产能过剩
热点丨OpenAI在AI基建下重注,与AMD达成百亿芯片供应协议
刚得诺奖的成果被做成芯片了
四川一芯片项目开工,总投资100亿!
芯片设备,产能过剩
小米金沙江电池磁吸无线超薄充电宝拆解,采用伏达全套芯片方案
特朗普急了,威胁对中国加征100%关税;稀土管制,全球半导体供应链承压应对;南大团队研发高精度模拟存算一体芯片创纪录
1.8nm芯片来了!
AI芯片与智算产业发展高峰论坛议程揭晓
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号