

模拟计算由于在能效和速度方面具备显著优势,近年来在AI硬件领域受到广泛关注。南京大学获类脑智能科技研究中心研究团队提出了一种高精度模拟存内计算方案,并以此为基础,研发出一款基于互补金属氧化物半导体工艺的模拟存算一体芯片。测试数据表明,该芯片创下了模拟存内计算领域的最高精度纪录。相关成果近日刊发于国际学术期刊《科学·进展》。
“尽管模拟计算硬件具有高能效和高并行的优势,但当前仍普遍面临计算精度低、计算稳定性不足的挑战。”论文共同通讯作者、南京大学类脑智能科技研究中心主任缪峰教授介绍。
此次研究中,科研团队提出了一种高精度模拟存内计算实现方案。“我们将模拟计算权重的实现方式,从易受环境干扰的物理状态参数,转换到高度稳定的器件几何尺寸比,从而突破了限制模拟计算精度提升的瓶颈。”论文共同第一作者、南大博士王聪说。基于这一思想,团队研发出了高精度模拟存算一体电路架构,并进行了流片验证。
根据相关报道,高精度模拟计算方案创新性地将模拟计算权重的实现方式从不稳定、易受环境干扰的物理参数(例如器件电阻)转向高度稳定的器件几何尺寸比,从根本上突破了限制模拟计算精度的瓶颈。基于这一思想,团队设计并验证了一款基于标准CMOS工艺的模拟存内计算芯片。结合权值重映射技术,该芯片在并行向量矩阵乘法运算中实现了仅0.101%的均方根误差,创下了模拟向量-矩阵乘法运算精度的最高纪录。
值得强调的是,该芯片在-78.5°C和180°C的极端环境下依然能稳定运行,矩阵计算的均方根误差分别维持在0.155%和0.130%的水平,展现出在极端环境下保持计算精度的优秀能力。不仅如此,该方案还可应用于各种二值存储介质,因而具备广泛的应用潜力。

本研究的核心思想是将模拟计算权重的实现方式从器件参数转向器件的几何比例,利用器件几何比例在制备完成后具备极高稳定性的特点,实现高精度计算。基于这一思想,研究团队通过电路拓扑设计,结合存储单元和开关器件,构建了可编程的计算单元。该单元通过两级依赖尺寸比例的电流拷贝电路实现输入电流与8比特权重的乘法运算:第一级的几何比例由8位存储器控制;第二级为固定比例,为不同列上的第一级输出电流赋予对应的二进制权重。两级共同作用,决定计算单元的整体等效比例,从而实现权重可编程的模拟乘法运算。通过阵列化排布这些计算单元,研究团队设计出了一款高精度电流域向量-矩阵乘法芯片。
研究团队基于180 nm CMOS工艺对该方案进行了流片验证。研究团队通过执行多轮随机向量-矩阵乘法充分测试了该芯片的计算精度。测试使用的矩阵规模为64×32,总共由4块芯片组成。同时,研究团队提出了一种权值重映射方法,可以最大程度利用器件尺寸比例的稳定性,从而进一步提高芯片的计算精度。在1500次随机向量-矩阵乘法实验中,测量到的芯片输出结果与理想值几乎完全一致,体现出极高的计算精度。进一步的统计结果显示,芯片计算相对误差的均方根仅为0.101%,刷新了模拟计算领域的最高精度纪录。与其他模拟计算方案相比,本芯片的计算精度显著提高。
该芯片具有的超高模拟向量-矩阵乘法精度,使得其在实际应用中表现优异。研究团队首先测试了芯片在神经网络推理任务中的应用效果:利用团队研发的高精度模拟存算芯片执行图3A所示神经网络中的全部卷积层和全连接层运算时,在MNIST测试集上识别准确率达到97.97%,这与64位浮点精度下的软件识别率相近(-0.49%),显著优于传统模拟计算硬件(+3.82%)。
研究团队利用高精度模拟存算芯片求解纳维–斯托克斯方程,以模拟流体流动行为。经实验测试,芯片计算出的流体运动结果与64位浮点精度的结果高度一致,而传统低精度模拟计算硬件在执行相同任务时则无法得到正确的结果
研究团队不仅测试了该模拟存算芯片的超高计算精度,还验证了这一芯片在极端环境中有效保持计算精度的鲁棒性。即使在外界环境变化条件下,器件的几何比例依然能保持恒定,这使得本芯片在极端环境中仍然能保持较高的计算精度。
“这些结果证实了高精度模拟计算方案在极端环境下的可靠性。”缪峰认为,这项突破是模拟存内计算技术迈向实际应用的关键一步,有望推动低功耗、高精度AI硬件技术的落地。





