光子芯片的新里程碑
来源:内容由半导体行业观察(ID:icbank)编译自IEEE,谢谢。
使用光而不是电的处理器有望成为实现人工智能的一种更快、更节能的方式。但到目前为止,它们只被用于运行已经训练过的模型,但新的研究首次证明了在光学芯片上训练人工智能的能力。
随着AI模型变得越来越大,人们越来越担心它们消耗的能量,这既是由于不断膨胀的成本,也是由于对环境的潜在影响。这激发了人们对可以减少 AI 能源费用的新方法的兴趣,其中光子处理器成为主要候选者。
这些芯片用光子代替传统处理器中的电子,并使用波导、滤波器和光探测器等光学元件来创建可以执行计算任务的电路。它们在运行 AI 方面特别有前途,因为它们在执行矩阵乘法方面非常高效——这是所有深度学习模型核心的关键计算。总部位于波士顿的Lightmatter和位于马萨诸塞州剑桥的Lightelligence 等公司已经在努力将光子 AI 芯片商业化。
不过,到目前为止,这些设备仅用于推理,即已经训练过的 AI 模型对新数据做出预测。这是因为这些芯片一直在努力实现用于训练神经网络的关键算法——反向传播。但在《科学》杂志的一篇新论文中,斯坦福大学的一个团队描述了首次在光子芯片上实施训练方法。
“我们的实验首次证明原位反向传播可以训练光子神经网络来解决任务,这为训练神经网络提出了一种新的节能途径,”在斯坦福领导这项研究但现在在加州工作的 Sunil Pai说。基于PsiQuantum,它正在构建光子量子计算机。
反向传播涉及反复将训练示例输入神经网络并要求它对数据进行预测。每次,该算法都会测量预测的偏离程度,然后将此误差信号通过网络反馈回去。这用于调整神经元之间的连接强度或权重,以提高预测性能。这个过程会重复多次,直到网络能够解决它所设定的任何任务。
不过,这种方法很难在光子处理器上实施,麻省理工学院的博士后助理Charles Roques-Carmes说,因为与标准芯片相比,这些设备只能执行有限的操作。因此,计算光子神经网络的权重通常依赖于在传统计算机上进行片外处理器的复杂物理模拟。
但在 2018 年,新科学论文的一些作者提出了一种算法,理论上可以在芯片本身上高效地执行这一关键步骤。该方案涉及在光信号中对训练数据进行编码,将其传递给光子神经网络,然后在输出端计算误差。然后,该误差信号通过网络向后发送,并与原始输入信号发生光学干涉,其结果告诉您需要如何调整网络的连接以改进预测。然而,该方案依赖于通过芯片向前和向后发送光信号,并能够测量通过单个芯片组件的光强度,这在现有设计中是不可能的。
现在,Pai 和他的同事已经构建了一个可以成功实现该算法的定制光子芯片。它使用一种称为“光子网格”的通用设计,该设计具有一系列可编程光学组件,可控制光信号在芯片上的分配方式。通过使光束相互混合和干涉,该芯片能够执行矩阵乘法,从而实现光子神经网络。
不过,新芯片的不同之处在于它的两端也有光源和光检测器,允许信号通过网络向前和向后传递。它还在网络中的每个节点都有小的“抽头”,可以吸走少量光信号,将其重定向到测量光强度的红外摄像机。总之,这些变化使得实现光学反向传播算法成为可能。研究人员表明,他们可以训练一个简单的神经网络,根据位置标记图形上的点,准确率高达 98%,与传统方法相当。
Pai 说,在这种方法变得实用之前,还有很多工作要做。光学水龙头和相机对于实验装置来说很好,但需要用商业芯片中的集成光电探测器代替。Pai 表示,他们需要使用相对较高的光功率才能获得良好的性能,这表明需要在精度和能耗之间进行权衡。
Roques-Carmes 说,认识到斯坦福大学研究人员的系统实际上是一种混合设计也很重要。计算量大的矩阵乘法是通过光学方式进行的,而被称为非线性激活函数的更简单的计算则以片外数字方式进行,它决定了每个神经元的输出。这些目前以数字方式执行并不昂贵,而以光学方式执行却很复杂,但 Roques-Carmes 说其他研究人员也在这个问题上取得进展。
“这项研究是朝着在光子芯片上实施有用的机器学习算法迈出的重要一步,”他说。“将其与目前正在开发的高效片上非线性运算相结合,这可能会为 AI 应用的全片上光子计算开辟道路。”
👇👇 点击文末【阅读原文】,可查看原文链接!
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3393期内容,欢迎关注。
推荐阅读
半导体行业观察
『半导体第一垂直媒体』
实时 专业 原创 深度
识别二维码,回复下方关键词,阅读更多
晶圆|集成电路|设备|汽车芯片|存储|台积电|AI|封装
回复 投稿,看《如何成为“半导体行业观察”的一员 》
回复 搜索,还能轻松找到其他你感兴趣的文章!
微信扫码关注该文公众号作者