估值 44 亿美元的初创公司 Lightmatter 周一发布了两项旨在加速人工智能芯片之间连接的技术。
Lightmatter 的技术不是以电信号的形式在计算机芯片之间传输信息,而是使用光学连接和所谓的硅光子学来通过光来传输信息。
总部位于加州山景城的 Lightmatter 迄今已筹集了 8.5 亿美元风险投资,此类光学技术在硅谷掀起了一波投资浪潮,人们正在寻求更好的方法将芯片串联起来,为聊天机器人、图像生成器和其他人工智能应用提供动力。
人工智能芯片公司,如超微半导体公司(AMD),已经展示了与其芯片一起封装的光学技术的使用。本月早些时候,Nvidia在其部分网络芯片中引入了光学技术,但其首席执行官表示,该技术尚未成熟到足以用于其所有芯片。
Lightmatter 周一推出了两款新产品,旨在与 AI 芯片一起封装。其中一款产品称为中介层,是一层材料,AI 芯片位于其上,用于连接同样位于中介层上的相邻芯片。另一款产品是一块称为“chiplet”的小块,可以放置在 AI 芯片之上。
Lightmatter 表示,其中介层将于 2025 年发布,小芯片将于 2026 年发布。中介层由 GlobalFoundries制造。
据悉,Lightmatter由Nicholas Harris、Darius Bunandar和Thomas Graham于2017年创立。Nicholas Harris是麻省理工学院量子光子实验室的成员,2012年,他与合作者实现了“可编程纳米光子处理器”(PNP),这是一种基于硅光子学的光学处理器,可以对光进行矩阵变换。
此后,他在《Nature Photonics》和《Science》等顶尖学术期刊上发表关于光子计算架构可行性文章,其中一篇文章的共同作者是Darius Bunandar(Lightmatter首席科学家)。
对于Lightmatter的投资,GV合伙人Erik Nordlander表示:“AI的发展速度远超任何人的预期,正在突破数据中心技术的极限。光子计算技术不仅是一次突破,也是未来打造百万节点数据中心的方向。Lightmatter是数据中心光子技术的绝对领导者。”
在生成式AI的发展道路上,目前Scaling Law对AI智能的提升起主导作用,随之而来的巨大计算需求推动了AI算力行业的爆炸性增长。
AI模型的训练和推理,背后的核心是数学运算,传统通用计算机可以执行所有这些运算,但对于复杂的问题,它必须将其分解为一系列小任务并依次执行。这种计算架构,使得很多超级计算机的每个计算节点可能一半时间都在等待数据,所以即使单个节点的速度再快,在整个计算集群层面也会有巨大的算力浪费。互连层是将巨量的CPU和GPU变成一个整体计算集群的关键,互连层越快,数据中心的速度就越快。
目前传统芯片互连的标准,速度最快的是NVIDIA的NVLink,它最新的NVL72平台,能够将72个NVIDIA Blackwell计算单元连接在一起,一台机架最多可提供1.4 exaFLOPs的FP4精度计算性能,而他们之间的算力网络传输速度是7Tbps。
Lightmatter的光子芯片没有像传统计算那样将矩阵计算分解为一系列通过逻辑门和晶体管的基本操作,而是通过一束光穿过一组小型可配置透镜和传感器来一次性解决整个问题。也就是说它既可以传输数据,也在这个过程中计算了数据,而且它的耗电量比传统芯片更低。
AI光子芯片是一种光计算架构与人工智能算法高度匹配的芯片设计,有潜力广泛应用于自动驾驶、安防监控、语音识别、图像识别、医疗诊断、游戏、虚拟现实、工业物联网、企业级服务器和数据中心等关键人工智能领域。
此外,类脑光子芯片可以模拟人脑的计算,通过光子携带信息在模拟大脑的神经网络构架下处理数据,使芯片达到像人脑一样高速并行且低功耗的计算。以微纳光子集成为基础的光子芯片结合基于光学计算的神经网络数据处理系统是应对未来低功耗、高速度、宽带宽、大数据量信息处理能力的关键。
大数据时代,人们对电子计算机处理系统的算力和速度等要求越来越高,摩尔定律的失效使电子芯片在计算速度和功耗方面遇到了极大的挑战,光子计算芯片以光子为信息的载体具有高速并行、低功耗的优势,因此被认为是未来高速、大数据量、人工智能计算处理的最具有前景的方案。
本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。