中科院计算所等机构成功研发出全球首款完全由AI自主设计的CPU芯片——启蒙1号,这一突破性成果不仅将现有GPT-4设计电路规模扩大了4000倍,更实现了与Intel 486相当的性能水平。这一创新不仅标志着AI在芯片设计领域的重大突破,更预示着传统芯片设计流程的彻底变革。
编者按:本文源自微信公众号新智元(ID:AI_era),编辑:好困桃子,微新创想经授权转载,头图来源摄图网中科院计算所的处理器芯片全国重点实验室联合多家机构,通过AI技术成功设计出全球首个无人工干预的全自动CPU芯片——启蒙1号。这颗32位RISC-V CPU不仅规模远超GPT-4的设计能力,还能流畅运行Linux操作系统,性能表现与Intel 486不相上下。这一研究成果为芯片设计领域带来了革命性的变化,有望彻底颠覆传统设计模式。论文地址:https://arxiv.org/pdf/2306.12456
世界首款AI全自动生成CPU芯片的诞生众所周知,CPU设计是一项极具挑战性且资源密集型的工作。传统设计流程需要工程师团队通过Verilog、Chisel或C/C++等语言编写代码,再借助电子设计自动化(EDA)工具进行逻辑综合与验证。这一过程不仅耗时费力,往往需要数百名工程师协作数月甚至数年才能完成。以典型的Intel CPU为例,超过500名工程师历时两年才最终完成设计[1]。为了突破这一瓶颈,研究人员创新性地采用AI技术,直接从测试用例的输入-输出(IO)数据中自动生成CPU设计,无需人工干预提供代码或自然语言描述。该方法在短短5小时内便成功构建出包含超过400万个逻辑门的32位RISC-V CPU——启蒙1号(见图1),规模是当前GPT-4设计能力的4000倍。图1展示了启蒙1号芯片的版图及实物图,其中CPU核心部分完全由算法自动生成,该芯片于2021年12月采用65nm工艺流片,运行频率达到300MHz。
启蒙1号的成功验证与性能表现该CPU于2021年12月完成流片,回片后成功运行了Linux操作系统和SPEC CPU 2000程序,其性能表现与Intel 486 CPU相当(见图2)。作为全球首款无人工干预的全自动CPU芯片,启蒙1号不仅实现了惊人的性能,更在设计中自主发现了包含控制器和运算器等模块的冯诺依曼架构,为未来探索未知体系结构优化提供了宝贵参考。图2直观展示了启蒙1号成功运行Linux系统及与其他CPU的性能对比(CPU-AI即启蒙1号)。
全自动CPU设计的创新流程与传统设计流程依赖大量人工参与不同,研究人员创新性地将「输入-输出(IO)」作为设计输入,因为IO可以直接从海量测试用例中获取或自动生成。这一思路将CPU自动设计问题转化为「满足特定IO规范的电路逻辑生成问题」,彻底改变了传统设计流程。只需测试用例即可直接生成符合功能需求的电路逻辑,无需再进行耗时的人工逻辑设计与验证环节(见图3)。图3清晰对比了传统设计流程(a)与全自动设计流程(b)的差异,后者直接从IO生成功能正确的电路逻辑。
全自动设计面临的挑战尽管前景广阔,但全自动CPU设计仍面临两大核心挑战:(1)规模挑战:在缺乏专家提供的电路描述时,设计空间等同于所有可能电路的组合,对于典型RISC-V CPU而言,设计空间极为庞大。在如此巨大的搜索空间中找到功能正确的电路超出了当前自动化方法的极限;(2)精度挑战:生成的电路逻辑必须达到极高的精确度(功能验证准确率需>99.99999999999%),任何微小错误都可能造成严重后果,这对AI算法的精度提出了远超传统应用的要求。
基于BSD的符号主义设计方法为应对上述挑战,研究人员创新性地采用基于二元决策图(BDD)扩展的二元猜测图(BSD)方法,区别于传统基于连接主义的深度学习方法。与依赖形式化描述的传统BDD不同,BSD通过0/1常数对BDD中的子图进行功能猜测。设计流程始于仅含1个节点的BSD作为初始估计,随后通过动态规划逐步增加节点数量,丰富电路细节(见图4)。该工作从理论上证明,随着BSD节点数的增加,电路准确率将稳步提升。图4展示了从1个节点的BSD出发,逐步增加节点以完善电路的具体生成过程。
自主发现人类知识:蕴含冯诺依曼架构的CPU值得注意的是,从IO自动生成的RISC-V CPU并非杂乱无章的黑盒逻辑,而是蕴含了人类已知的冯诺依曼架构知识。由BSD表示的CPU设计中清晰包含了控制单元和运算单元(见图5),其中控制单元由BSD顶层生成,负责全局控制;运算单元则完成算术和逻辑运算。这些单元还可进一步分解为译码器、ALU等更细粒度的子模块,直至最底层的逻辑门。图5直观展示了启蒙1号中控制单元与运算单元的自主发现过程,以及其可进一步分解的模块化结构。
不同AI路径的交叉探索与未来展望自动电路逻辑设计一直是计算机科学的核心课题之一[2]。近年来,随着AI技术的飞速发展,基于行为主义和连接主义(如深度强化学习、GPT-4等)的自动逻辑设计研究逐渐兴起(见表1)。表1对比了不同自动逻辑设计工作的关键指标。现有研究多聚焦于生成单个模块或小规模CPU,与实际CPU芯片的规模仍存在多个数量级的差距。而中科院计算所团队及其合作单位(中科院软件所、中科大、寒武纪公司等)提出的方法成功构建了超过400万个逻辑门的完整RISC-V CPU,规模是当前GPT-4的4000倍。更重要的是,该工作在符号主义框架下从理论上保证了功能正确性,彻底颠覆了传统设计流程中的逻辑验证环节。
展望未来,通过符号主义、行为主义和连接主义等不同AI路径的交叉融合探索,自动生成的CPU有望在5至10年内达到甚至超越人类专家的设计水平,彻底重塑芯片设计行业。团队介绍自2008年起,中科院计算所便持续深耕芯片设计与人工智能的交叉研究,成功孵化出人工智能芯片寒武纪等知名产品。在面向芯片设计的人工智能方法探索上,中科院计算所已积累十余年经验,并始终致力于实现芯片设计的完全自动化。依托中国科学院计算技术研究所建立的处理器芯片全国重点实验室,作为中国科学院首批批准建设的全国重点实验室之一,并被科技部遴选为首批标杆全国重点实验室,于2022年5月正式启动建设。实验室学术委员会主任由孙凝晖院士担任,实验室主任为陈云霁研究员。近年来,实验室在处理器芯片领域斩获多项国家级荣誉,包括首个国家自然科学奖等6项大奖;在国际顶级会议发表论文数量长期位居中国首位;开创了深度学习处理器等前沿研究方向;并成功孵化出总市值数千亿元的国产处理器产业领军企业。参考资料:[1] Bentley, B. Validating a modern microprocessor. In Proceedings of International Conference on Computer Aided Verification (CAV), 2–4 (2005).[2] Church, A. Applications of recursive arithmetic to the problem of circuit synthesis. Summaries of the Summer Institute of Symbolic Logic 1, 3-50 (1957)[3] Roy, R. et al. Prefixrl: Optimization of parallel prefix circuits using deep reinforcement learning. In Proceedings of Design Automation Conference, 853–858 (2021).[4] Chen, P. et al. Circuit learning for logic regression on high dimensional Boolean space. In Proceedings of Design Automation Conference, 15 1–6 (2020)[5] Rai, S. et al. Logic synthesis meets machine learning: Trading exactness for generalization. In Proceedings of Design, Automation & Test in Europe Conference & Exhibition, 1026–1031 (2021).[6] Blocklove, J et al. Chip-Chat: Challenges and Opportunities in Conversational Hardware Design. In arxiv, https://arxiv.org/abs/2305.13243 (2023)本文为专栏作者授权微新创想发表,版权归原作者所有。文章系作者个人观点,不代表微新创想立场,转载请联系原作者。如有任何疑问,请联系http://www.idea2003.com/。