
北京大学人工智能研究院孙仲研究员团队与集成电路学院研究团队合作专业炒股配资门户,成功开发出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。这款芯片在处理大规模MIMO信号检测等关键科学问题时,计算吞吐量和能效比当前顶级数字处理器(如GPU)高出百倍至千倍。相关研究成果于10月13日在《自然·电子学》期刊上发表。

对于习惯了数字计算机(0和1)的公众来说,“模拟计算”可能既古老又新奇。孙仲用生动的比喻解释了这一概念:现代所有芯片都采用数字计算,数据需要先转换成0和1的符号串。例如,数字“十”需转译为“1010”。而模拟计算则无需这层转译,它直接使用连续的物理量(如电压、电流)来表示数学上的数值。比如,数学上的“十”,可以直接用十伏或十毫伏的电压表示。

模拟计算机曾在上世纪30至60年代被广泛应用,但随着计算任务日益复杂,其精度瓶颈逐渐显现,最终被数字计算取代。此次研究的核心正是要解决模拟计算“算不准”的问题。

目前市面上主流的CPU和GPU都是数字芯片,采用冯诺依曼结构,将计算和存储功能分开,通过01数字流的编译、计算和解码实现信息处理。基于阻变存储器的模拟计算取消了将数据转化为二进制数字流的过程,同时不必进行过程性数据存储,从而将数据计算与存储合为一体,释放算力。

与其他“存算一体”方案相比,孙仲团队专注于更具挑战性的矩阵方程求解,这是AI二阶训练的核心。矩阵求逆操作要求极高的计算精度,时间复杂度达到立方级。模拟计算凭借物理规律直接运算的方式,具有低功耗、低延迟、高能效和高并行的优势。只要能够不断降低计算误差,提升计算精度,将为传统GPU带来爆炸性突破。

在实验中,团队成功实现了16×16矩阵的24比特定点数精度求逆,经过10次迭代后,相对误差降至10⁻⁷量级。在求解32×32矩阵求逆问题时,其算力已超越高端GPU的单核性能;当问题规模扩大至128×128时,计算吞吐量更是达到顶级数字处理器的1000倍以上。

关于应用前景,孙仲认为模拟计算将在未来AI领域发挥重要作用,特别是在机器人和人工智能模型训练方面。谈及与现有计算架构的关系,孙仲强调未来将是互补共存:CPU作为通用“总指挥”因其成熟与经济性难以被淘汰,GPU则专注于加速矩阵乘法计算。模拟计算芯片旨在更高效地处理AI领域最耗能的矩阵逆运算,是对现有算力体系的有力补充。
专业炒股配资门户
同创优配提示:文章来自网络,不代表本站观点。