新芯片将神经网络的功耗降低95%

麻省理工学院研究人员开发了一种专用芯片,将神经网络计算的速度提高了三到七次的前辈,同时将电力消耗降低到95%。这可能会对智能手机本地运行神经网络,甚至在家用电器中嵌入它们。

诸如语音或面部识别计划之类的人工智能系统中最近的大多数进步都是由神经网络提供的,致密地互连的简单信息处理器的网格,学会通过分析大量训练数据来执行任务。

但神经网络很大,它们的计算是能量密集型的,因此他们对手持设备并不是很实用。大多数智能手机应用程序,依赖神经网络只需将数据上传到Internet服务器,该应用程序处理它并将结果发送回电话。

现在,麻省理工学院研究人员开发了一种专用芯片,将神经网络计算的速度提高了三到七次的前辈,同时将功耗降低到95%至95%。这可能会对智能手机本地运行神经网络,甚至在家用电器中嵌入它们。

“一般处理器模型是芯片的某些部分存在内存,并且在芯片的另一部分中有一个处理器,当您执行这些计算时,您可以在它们之间来回移动数据,”Avishek Biswas说,电气工程和计算机科学的麻省理工学院研究生,培养了新芯片的发展。

“由于这些机器学习算法需要如此多的计算,因此该数据转移和数据转移是能量消耗的主要部分。但是计算这些算法可以简化到一个特定操作,称为点产品。我们的方法是,我们可以在内存中实现此点产品功能,以便您不需要来回传输此数据?“

Biswas和他的论文顾问,Anantha Chandrakasan,MIT工程学院的院长和电气工程和计算机科学教授的Vannevar布什教授,描述了BISWAS本周在国际固态电路会议上展示的新芯片。

回到模拟

神经网络通常被布置成层。一层网络中的单个处理节点通常将从下面的图层中的多个节点接收数据,并将数据传递到上面层中的几个节点。节点之间的每个连接都有自己的“权重”,表示一个节点的输出将在下一个所执行的计算中播放的角色有多大。培训网络是一个设置这些权重的问题。

从下层中的多个节点接收数据的节点将通过相应连接的权重乘以每个输入并总和结果。该操作 - 乘法的总和 - 是点产品的定义。如果点产品超过一些阈值,则节点将在下一层中的节点传输到与其自身重量的连接。

神经网络是一种抽象:“节点”只是存储在计算机内存中的权重。计算点产品通常涉及从存储器中获取权重,从存储器中获取相关的数据项,将两个存储器乘以某个位置,然后将每个输入重复到节点的每个输入。鉴于神经网络将有数千个甚至数百万节点,这是大量的数据移动。

但是,这种操作顺序只是大脑中发生的事情的数字近似,其中沿着多个神经元行驶的信号在“突触”中相遇或神经元束之间的间隙。横跨突触的射击率和电化学信号对应于数据值和权重。麻省理工学院研究人员的新芯片通过更忠实地复制大脑来提高效率。

在芯片中,节点的输入值被转换为电压,然后乘以适当的权重。只有组合电压被转换回数字表示并存储以进一步处理。

因此,该芯片可以在原型 - 在单个步骤中,在原型中,在原型中计算多个节点-16的点产品,而不是每次计算的处理器和存储器之间的穿梭。

全部或全无

系统的一个键是所有权重都为1或-1。这意味着它们可以在存储器本身内实现为简单的开关,关闭电路或使其打开。最近的理论工作表明,只有两名重量培训的神经网络应该失去几乎没有1%到2%之间的准确性。

Biswas和Chandrakasan的研究熊预测。在实验中,它们在传统计算机上充分实现了传统计算机上的神经网络和其芯片上的二进制重量等同物。它们的芯片的结果通常在传统网络的2至3%范围内。

“这是一个有前景的基于SRAM的内存模拟计算的现实世界演示,用于深入学习应用,”IBM人工智能副总裁Dario Gil说。“结果表明,使用内存阵列的节能操作的节能执行令人印象深刻的规范。它肯定会打开未来在IOT [互联网上]中使用更复杂的卷积神经网络的可能性,以便在未来的情况下进行图像和视频分类。“

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。