陈云霁:人工智能将彻底改变处理器芯片研究

来源:处理器芯片全国重点实验室发布时间:2025-02-21 15:58
AI
芯片制造
生成海报
陈云霁
中国科学院计算技术研究所副所长
人工智能正在催生科学研究的新范式,也必将彻底改变处理器芯片的发展。

诚然,已经有越来越多的芯片研究者开始关注人工智能。但总的来说,大部分芯片研究者是把人工智能仅仅当作芯片在科学计算、事务处理、数据库之外的又一个应用负载。然而,人工智能对于处理器芯片发展的意义远远不止于此。人工智能正在催生科学研究的新范式,也必将彻底改变处理器芯片的发展。尤其是在大模型出现后,诺贝尔奖得主G. Hinton说:“有时我认为这(人工智能)就像外星人登陆了,而人们还没有意识到。”

人工智能正在改变科学研究的范式

科学研究的范式是指科研共同体广泛采用的科研模式。在人类开展科学研究的漫长历程中,最本质性的变革莫过于范式变革。范式的变革必定会催生大量具体的重大科研成果,甚至推动生产力和生产关系的巨变。按照李国杰院士在《智能化科研(AI4R):第五科研范式》一文中的归纳,在已有的四大科研范式(实验、理论、计算和数据)的基础上,第五范式——智能化科研正在出现。

图1. 科学研究的五大范式

从某种意义上讲,第五范式的出现可能是科学史上最大的一次变革:科学研究不再以人为单一中心,而是以人-机为双中心。机器不再仅仅是人类科研的辅助工具,而是与人类形成了一种紧密协作的关系(或许类似于人类起导师的作用,机器起研究生的作用):人类负责提出科学问题、设定研究方向,机器提供建议;机器阅读文献、制定实验方案,人类进行修正和调整;具体实验的过程通过具身智能体来完成,人类给予指导;人类提出数据分析的大致思路,机器具体完成海量数据中的规律挖掘;人类编制论文的提纲,机器完成具体写作。

近来,孙凝晖院士提出了人-机双中心科研的OOHV流程。该流程是观察(Observe)、模拟(Orient)、猜想(Hypothesis)和实验(Verify)四个步骤的循环。每个步骤都可以在人类的指导下由人工智能来具体实施。这种人机协作不仅提升了科研效率,还拓展了科学研究的边界,使人类能够探索更复杂、更宏大、更交叉的科学问题。

当然,人-机双中心科研范式还没有在所有学科完全形成和全面应用。在某些环节,机器已经发挥了重要作用(如模拟);而在另一些环节,机器还未起到决定性作用(如在实体空间中做实验)。但即便如此,人工智能的部分赋能已经取得了非常显著的成效。据统计,2022年数学、物理和工程科学等领域的论文中,人工智能的渗透率已达到12.4%-15.3%。

最为典型的例子当属 AlphaFold。它基于深度学习算法,能够高精度预测超过100万个物种的2.14亿个蛋白质结构,解决了困扰结构生物学50年的难题。它让科研人员从繁琐的结构预测工作中解放出来,将更多精力投入到对生物学机制的深入理解和创新研究上。因此,AlphaFold获得2024年诺贝尔化学奖,可以说是实至名归。

AlphaFold不是孤例。在物理学领域,DeepMind和瑞士等离子体中心合作提出将强化学习用于优化托卡马克内部的核聚变等离子体控制;在天文学领域,人工智能已经应用在海量天文观测数据处理中,帮助人类发现新的天体和宇宙现象;在材料科学领域,人工智能已经应用在模拟和预测新型材料的性质中。这些实例表明,人-机双中心的新范式正推动科学研究走向新的高度。因此,李国杰院士指出:“科研的智能化是一场科技上的革命。它带来的机遇和挑战将决定未来20年,中国在科技发展上是与国际先进水平拉大差距还是迎头赶上。”

处理器芯片研究尤其适合人工智能的介入

处理器芯片的研究属于高技术研究,相较数理化天地生等传统自然科学研究,一方面同属广义科学研究的一部分,另一方面又有很大不同。传统自然科学更注重发现新原理、新机制和新规律,而高技术研究更强调发明新方案、新工具和新产品。这种特殊性使得处理器芯片研究尤其适合人工智能的介入。

处理器芯片研究要发现的目标非常明确清晰,就是要在工艺、成本、能耗等约束下,设计出速度尽可能高、应用尽可能广的芯片。其核心问题就是如何在庞大的高维空间中,找到精确满足复杂约束条件的最优解(或近似最优解)。通过机器学习方法,人工智能可以构建模型去自动探索不同的芯片架构、电路设计和工艺参数,快速筛选出速度最高的参数组合,从而显著提升设计效率和质量。处理器芯片研究领域丰富的数据资源(包括体系结构文档、逻辑设计代码、物理设计代码、性能测试结果等)又为机器学习模型的训练提供了高质量的数据支撑。

尤其值得指出的是,对处理器芯片研究的核心问题——如何在庞大的高维空间中搜索最优解,人工智能具备超越人类的潜力。人类大脑通常只能清晰分析由少数变量和公式组成的系统,难以直接搜索高维空间的理论最优解。因此传统芯片研究以人为中心,只能将高维空间分层分解为若干低维子问题,并在分解过程中基于人类直觉或者先验知识来降维和剪枝。例如,先将C语言级别的体系结构描述转换为RTL级的逻辑设计,再将RTL级的逻辑设计转换为基于布尔逻辑的网表,最后将网表转换为CMOS电路。

传统人为中心的芯片研究通过分层降维简化问题,不可避免地会扼杀许多潜在的优化机会,牺牲了全局最优性,使我们不可能触及芯片的理论最优解(“芯片之神”)。而人工智能技术可以在此展现出独特优势,突破人类经验局限,在海量晶体管组成的高维设计中捕捉人类难以察觉的优化路径。

这就好像在AlphaGo[10]出现之前,人类只能根据直觉和定势去搜索围棋中的“妙手”;但AlphaGo出现之后,我们才知道人类搜索出来的“妙手”距离人工智能水平相差有多远。AlphaGo甚至为我们打开了一扇全新的大门,使得我们终于有机会去一窥围棋的理论最优(“围棋之神”)。

基于大模型的处理器芯片研究

大模型是人工智能近七十年发展的最高成就,也是通向通用人工智能最具潜力的方向。因此,将大模型技术引入处理器芯片研究,是第五科研范式带来的一次彻底的革命。这场革命不仅体现在设计效率的显著提升,更在于它重新定义了芯片创新路径——通过构建覆盖算法、架构、电路到基础软件的人工智能自动设计体系,芯片设计得以突破传统人力密集型模式的限制,实现需求理解、架构探索、代码生成的全流程自动化。这将改变处理器芯片国际学术界的基本游戏规则。

更重要的是,这场革命对我国处理器芯片产业将带来前所未有的机遇。目前我国处理器芯片产业主要面临工艺、资源、生态三重壁垒的限制,而大模型等人工智能技术,可能会成为“破壁者”。面对工艺壁垒,人工智能可以通过搜索和生成高质量的芯片架构和电路实现,实现超越工艺代际的性能补偿。面对资源壁垒,人工智能替代人来设计处理器芯片,大幅降低人力和财力资源投入。面对生态壁垒,大模型通过实现跨指令集的程序自动转译甚至支持自然语言编程,打破指令集为核心建立起来的壁垒。

然而,处理器芯片研究所需要的大模型,绝不是“参谋将军”性质的常规大语言模型。仅仅能够回答一些处理器芯片相关的知识性问题,或为研究者提供模棱两可的建议,对学科和产业的发展意义有限。真正有价值的大模型,应能够从人类模糊、二义甚至不完整的需求规范出发,端到端地生成处理器芯片及其配套基础软件(包括操作系统、编译器和库)的代码。

这显然是一个极具挑战的任务。从实用角度看,处理器芯片的代码数通常以十万行计,而其功能正确性要求必须无限逼近100%,因为即使出错概率仅为十亿分之一,对于一个1GHz主频的单发射处理器芯片来说,每秒钟仍可能出错一次,这是绝对不可接受的。

由于硬件对规模和正确性的要求极高,处理器芯片大模型所面临的挑战,远比当前软件开发常用的Copilot严峻得多。毕竟,软件开发者对Copilot要求的仅仅是以90%以上的正确率生成100行左右的代码。为此,处理器芯片全国重点实验室正在组织队伍开展攻关,力争取得突破。

处理器芯片全国重点实验室的工作

作为全国首批20家标杆全国重点实验室之一,处理器芯片全国重点实验室(以下简称“实验室”)依托中国科学院计算技术研究所,是我国处理器芯片基础研究的“龙头”、“领头”和“源头”。实验室长期从事人工智能和处理器芯片的交叉研究,前期不仅研制了国际上首个深度学习处理器芯片寒武纪1号,也在国际上首次实现了完全由人工智能自动设计的通用处理器芯片启蒙1号。

在上述交叉研究过程中,我们发现,实现处理器芯片大模型不能仅依赖主流的连接主义的技术路线,而是需要融合连接主义大模型的可扩展性、符号主义形式化方法的精确性、行为主义反馈控制理论的收敛性等多种技术路线,取长补短,从而构建处理器芯片自动设计的技术体系。

图2. 处理器芯片自动设计新范式

基于人工智能奠基人Simon和Newell在1957年提出的“生成器-测试(Generator-Test)”通用问题求解框架,我们提出了一种处理器芯片自动设计新范式:即通过自动验证、自动生成与自动修复组成的反馈控制过程。在这一过程中,基于连接主义的大模型生成器负责生成尽可能满足设计需求的软硬件设计,基于符号主义的形式化验证器检查设计是否完全符合需求规范;若未能100%满足需求,行为主义控制反馈器则驱动生成器进行调试与修复,进入下一轮的“生成-验证-反馈”迭代。通过不断地反馈迭代,逐步修正大模型生成的解,最终在庞大高维空间中找到精确满足复杂约束的最优解。

需要指出的是,上述新的芯片自动设计体系,并不代表着人类的知识没有价值。例如,整个自动设计循环的最好的起点应当是人类前期设计的高质量开源处理器芯片,因为对超高维空间搜索问题,起点的质量对于最终找到的解的质量有着巨大的影响。在循环过程中,人类经验对于加速循环的收敛迭代,也会起到重要的作用。

基于上述芯片自动设计体系,实验室构建了贯穿计算机系统结构的垂直创新链条,全面覆盖从底层硬件到上层软件的四个关键层次(处理器芯片、操作系统、编译器和高性能库)的自动设计。

图3. 计算机系统四个关键层次自动设计的成果

自动生成处理器设计

我们提出了基于二元推测图(BSD)的自动电路设计基础模型,并成功实现了国际首个人工智能全自动设计的RISC-V处理器“启蒙1号”,和首个自动设计的超标量处理器“启蒙2号”。该工作发表于IJCAI2024,被Nature新闻评价为“对中国芯片的好消息”。

自动生成优化的操作系统配置

我们和中科院软件所合作,提出了基于大模型的操作系统内核配置自动优化方法,通过“观察-剪枝-提议-执行-纠错”的反馈回路,大幅缩减搜索空间,仅需一天即可生成优化配置,性能最高提升25.6%,超越硬件厂商的手工优化水平。该工作发表于ICML2024。

自动生成芯片配套的编译工具链

我们提出利用大语言模型直接构建端到端编译器的技术路线,通过程序的文法信息引导大模型思维链,并结合编译器领域知识,构建了专用大模型,成功完成了AnsiBench、CoreMark等真实代码编译验证。初步的成果发表在EMNLP2024。

自动生成特定算法的高性能程序代码

我们和中科院软件所合作,提出了全球首个基于大模型的高性能矩阵乘法代码自动生成框架。该框架在RISC-V平台上的性能达到OpenBLAS的211%,在NVIDIA平台上的性能达到cuBLAS的115%,显著提升了生成代码的性能与开发效率。该工作发表于AAAI2025。

总结

目前,以大模型为代表的人工智能在处理器芯片设计中的应用已取得初步成果,但在性能、功耗和面积等多目标之间实现更优的平衡,仍需依赖人类专家的干预和优化。

假以时日,破壁者将使人工智能在无人类干预的情况下,实现处理器芯片乃至整个计算机系统结构全自主设计与优化:人类提出高层次目标(如“设计一款能高效支持DeepSeek大模型的RISC-V处理器”),人工智能就可以在人类积累的先验知识基础之上,完成芯片、编译器、操作系统、高性能库的设计工作,并能自动建立评估、纠错、优化的完整闭环不断优化。最终,人工智能设计的芯片将超越人类顶尖设计师设计的芯片。对于结构复杂、组件繁多的通用CPU来说,人工智能的超越可能不是一蹴而就的事情;但是对领域专用的NPU和GPU,我相信人工智能的超越将会在不那么遥远的未来。

本文转自媒体报道或网络平台,系作者个人立场或观点。我方转载仅为分享,不代表我方赞成或认同。若来源标注错误或侵犯了您的合法权益,请及时联系客服,我们作为中立的平台服务者将及时更正、删除或依法处理。

评论
暂无用户评论
icon
最新资讯
更多