模拟计算作为一种不同于传统数字计算的范式,可直接利用物理定律进行运算,在能效和速度方面具备明显优势,因此近年来在AI硬件领域受到广泛关注。
近日,南京大学物理学院缪峰教授和梁世军教授团队提出了一种高精度模拟计算方案。该方案将模拟计算权重的实现方式从不稳定、易受环境干扰的物理参数(例如器件电阻)转向高度稳定的器件几何尺寸比,突破了限制模拟计算精度的瓶颈。
据介绍,南京大学研发团队设计并验证了一款基于标准CMOS工艺的模拟存内计算芯片。结合权值重映射技术,该芯片在并行向量矩阵乘法运算中实现了仅0.101%的均方根误差,创下了模拟向量-矩阵乘法运算精度的最高纪录。
该芯片在-78.5℃和180℃的极端环境下依然能稳定运行,矩阵计算的均方根误差分别维持在0.155%和0.130%的水平。此外,研究团队也在强磁场环境中对芯片输出电流进行了测量。结果显示,芯片核心单元的输出电流相较于无磁场条件的变化不超过0.21%。(文章来源:南京大学)