麻省理工学院工程师开发可编程纳米光电处理器

该未来派绘图显示了集成在印刷电路板上的可编程纳米光电处理器,并进行深度学习计算。Redcube Inc.以及对研究人员提供的

一支工程师团队提出了一种全新的架构,用于全光神经网络,原则上可以提供用于传统推理任务的最先进电子产品的计算速度和功率效率的增强。

“深入学习”计算机系统,基于人工神经网络,模仿大脑从累积的累积中学习的方式,已成为计算机科学的热门话题。除了实现面部和语音识别软件等技术之外,这些系统还可以进行大量的医疗数据,以查找可能是有用的诊断性的模式,或扫描化学公式,以获得可能的新药品。

但是,这些系统必须进行的计算是非常复杂和苛刻的,即使对于最强大的计算机而言。

现在,MIT和其他地方的一支研究人员团队使用光而不是电力制定了这种计算的新方法,他们说他们说可以大大提高某些深度学习计算的速度和效率。他们的结果今天出现在Junick Nature Photonics中,由MIT Postdoc Yichen Shen,研究生Nicholas Harris,MarinSoljačić和Dirk Englund教授和其他八个。

Soljačić说,多年来许多研究人员已经对基于光学的计算机的主张,但“人们急于过度承诺,​​而且它被回复。”虽然这些光子计算机的许多建议用途证明不实用,但这支球队开发的基于轻基的神经网络系统“可能适用于某些应用程序的深度学习”,“他说。

当涉及某些重要的神经网络任务所需的计算类型时,传统计算机架构并不是很有效。这种任务通常涉及矩阵的重复乘法,这在传统的CPU或GPU芯片中可以非常重要地强化。

经过多年的研究,麻省理工学院团队提出了光学地表现出这些操作的方式。“这个芯片,一旦你调整它,就可以使用矩阵乘法,原则上,零能量几乎立即,”Soljačić说。“我们已经证明了重要的建筑块,但尚未完整的系统。”

通过类比,Soljačić指出,即使是普通的眼镜镜头也会在通过它的光波上执行复杂的计算(所谓的傅里叶变换)。光束在新的光子芯片中进行计算的方式远远远,但具有类似的底层原理。新方法使用定向的多个光束,使得它们的波彼此相互作用,产生传送预期操作结果的干扰图案。得到的设备是研究人员称可编程纳米光电处理器调用的东西。

因此,沉说,使用该架构的光学芯片原则上可以在典型的人工智能算法中进行计算得多,并且使用常规电子芯片的每次操作的少于一千秒。“使用光进行矩阵乘法的自然优势在加速和节能中扮演着大部分,因为密集的矩阵乘法是AI算法中最有力的饥饿和耗时的部分”他说。

通过HARRIS和协作者在ENGLUND实验室中开发的新可编程纳米光电处理器使用了一系列波导,其以可以根据需要修改的方式互连的波导,编程该集光束用于特定计算。“你可以在任何矩阵操作中编程,”哈里斯说。处理器通过一系列耦合的光子波导引导光。该团队的完整提案要求对应用一种称为非线性激活功能的操作的交错层,类似于大脑中神经元的操作。

为了演示概念,团队将可编程纳米光电处理器设置为实现一个识别四个基本元音的神经网络。即使采用这种基本的系统,它们也能够达到77%的精度水平,而传统系统的约90%。Soljačić说,缩放系统有“没有大量障碍”来扩大系统。

Englund补充说,可编程的纳米光电处理器也可以具有其他应用,包括用于数据传输的信号处理。“高速模拟信号处理是它可以管理的东西比首先将信号转换为数字形式的方法,因为光线是固有的模拟介质。“这种方法可以直接在模拟领域进行处理,”他说。

该团队表示,使这一系统有用,仍然需要更多的努力和时间;但是,一旦系统缩放并完全运行,它就可以找到许多用户案例,例如数据中心或安全系统。该系统也可以是自驾车或无人机的福音,说哈里斯,或者“无论何时你需要做大量的计算,而且你没有很多功率或时间。”

研究团队还包括MIT研究生Scott Skirlo和Mihika Prabhu在Mickensics的研究实验室,在数学中,Zhijie Zhao在Elenion Technologies,纽约和Hugo Larchelle的Elenion Technologies的生物学,汤姆Baehr-Jones和Michael Hochberg。 Universitédeherbroke,魁北克省。美国军队研究办公室通过士兵纳米技术研究所,国家科学基金会和科学研究空军办公室支持这项工作。

出版物:伊希申,等,“与连贯的纳光电电路深入学习,”自然光子(2017)DOI:10.1038 / Nphoton.2017.93

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。