新型类脑芯片,AI能效提升2000倍

来源:半导纵横发布时间:2026-04-03 11:21
芯片制造
技术进展
生成海报
利用这类器件对复杂时间序列的未来演变进行预测,能耗可比标准软件方案降低至多两千倍。

研究人员发现,一种利用材料物理特性处理信息的新型计算机芯片,有望大幅提升部分AI系统的能效。拉夫堡大学的物理学家研发出一款器件,能够直接在硬件层面处理随时间变化的数据,而非依赖在传统计算机上运行的软件,该研究成果发表在《高级智能系统》。

研究表明,在部分任务中,该方法的能效最高可比传统基于软件的处理方式高出 2000 倍,具体提升幅度因应用场景而异。该研究团队负责人、物理学高级讲师 Pavel Borisov 博士表示:“这一成果令人振奋,因为它让我们得以重新思考AI系统的构建方式。通过采用物理过程而非完全依赖软件,我们能大幅降低这类任务所需的能耗。”

芯片工作原理

现实中许多AI问题都需要处理随时间变化的数据,并识别模式以预测后续发展,例如气象系统、生物过程或传感器数据。这类任务通常会采用储备池计算技术:输入数据会被转换为更易于检测和预测模式的形式,而这一过程一般由软件完成。

拉夫堡大学研发的这款器件可直接在硬件上完成此类计算。它属于忆阻器,一种能够记录历史输入信息的电子元件,由纳米多孔氧化物制成。器件内部含有随机分布的纳米孔洞,可形成多条电学通路;这些通路如同神经网络的隐藏计算层,让材料本身就能承担一部分计算任务。在研究中,科研人员证实该器件能够处理时变数据,将其输出接入线性计算模型后,可用于识别模式并进行短期预测。

混沌系统、图像与逻辑测试

研究团队使用Lorenz-63 system对该系统进行了测试,这是与 “蝴蝶效应” 相关的经典混沌数学模型,微小变化即可导致结果截然不同。团队同时还测试了简单像素化数字图像识别、基础逻辑运算等任务。

测试结果显示,该模型能够利用经忆阻器处理的数据,成功对混沌洛伦兹系统的短期行为进行预测,并补全缺失数据;同时可准确识别像素化数字、完成基础逻辑运算,证明同一器件可支持多种不同任务。

能效影响与未来潜力

研究人员表示,该方案有望解决AI领域日益突出的难题。随着系统性能不断提升,其能耗也持续增长,引发了对长期可持续性的担忧。将计算任务从软件转移到硬件,有望在实现相近效果的同时大幅降低能耗。

Borisov 博士介绍:“人类大脑中神经元会形成数量庞大、看似随机的神经连接。受此启发,我们在氧化铌纳米薄膜上设计孔洞,构建出新型电子器件,在人工神经网络中实现了复杂且随机的物理连接。我们证实,利用这类器件对复杂时间序列的未来演变进行预测,能耗可比标准软件方案降低至多两千倍。”

研究团队指出,该系统目前仍处于早期阶段,测试仅针对相对简单的任务展开。后续还需对技术进行规模化拓展,提升网络复杂度,并评估其在噪声更多的真实场景数据下的表现。Borisov 博士表示:“下一步我们将提升神经网络复杂度,并使用包含更多信号噪声的输入数据开展测试。我们相信,这是一种可扩展、具备实用价值的技术路线,能够制造出小型、适配工业场景的AI应用器件,实现更优能效与离线运行能力。”

该论文作者之一、理论物理学专家 Sergey Saveliev 教授补充道:“这是基础物理助力现代计算的绝佳案例。通过利用物理系统的复杂性作为高维数据滤波器,避免了庞大的计算开销。”

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论