光芯片,即将起飞!
公众号记得加星标??,第一时间看推送不会错过。
大型语言模型(LLMs)正在迅速逼近当代计算硬件的极限。例如,据估算,训练GPT-3大约消耗了1300兆瓦时(MWh)的电力,预测显示未来模型可能需要城市级(吉瓦级)的电力预算。这种需求促使人们探索超越传统冯・诺依曼架构的计算范式。
本综述调查了为下一代生成式AI计算优化的新兴光子硬件。我们讨论了集成光子神经网络架构(如马赫-曾德干涉仪阵列、激光器、波长复用微环谐振器),这些架构能够实现超高速矩阵运算。同时,我们也研究了有前景的替代类神经设备,包括脉冲神经网络电路和混合自旋-光子突触,它们将存储与计算融合在一起。本文还综述了将二维材料(如石墨烯、