神经网络为基础的机器学习是一种开发人工智能的当前热点。最近,在《Applied Physics Reviews》杂志上发表了一篇论文提出了一种使用光而不是电来执行神经网络所需计算的新方法。在这种方法中,一个光学的张量核心并行执行矩阵的乘法,提高了当前深度学习模式的速度和效率。
在机器学习中,神经网络接受训练从而执行无监督的决策和对未知数据的分类。一旦神经网络进行了数据训练,它就可以生成一个推理来识别和分类目标以及模式,从而在数据中查找标识。以光学为基础的张量处理单元(TPU)并行存储和处理数据,具有光电互连功能,使光学内存能够高效读取和写入,光子 TPU 可与其他架构进行接口。
作者之一 Mario Miscuglio 说,“我们发现,集成的光学平台容纳了高效光存储器可以执行与张量处理单元相同的操作,但它们功耗更小,同时具有更高的吞吐量。如果经过适当培训,可用于以光的速度进行推理。”
大多数神经网络拆解多层相互关联的神经元,旨在模仿人的大脑。实现这些网络的一个有效的方式是将矩阵和向量相乘的复合函数。这种方式可以实现高效的并行计算。科学家可以通过专门用于向量化操作(如矩阵乘法)的体系结构来实现并行计算。但是,如果处理的任务越高级,所需的预测精度越高,神经网络就会变得越复杂。此类网络需要海量的数据用于计算,并需要更多的功耗处理这些数据。
研究结果表明,他们的光学TPU的性能可以高于电学TPU的2-3个数量级。至于像5G网络一样的网络外围,计算端点的分配网络和高吞吐量以及智能任务处理的引擎,光子也可以是一个理想的选择。在网络的外围,数据信号可能已经以光子的形式存在。这些光子来自于监控摄像机、光学传感器和其他源。Miscuglio 说,“光子专用处理器可以节省大量的能源,缩短响应时间并且减少数据中心的流量。”
对于终端用户来说,这意味着数据处理速度要快得多,因为大部分数据是预处理的,这意味着只需要将一部分数据发送到云端或数据中心就可以满足用户的需要。
文章来源:https://www.sciencedaily.com/releases/2020/07/200721114731.htm