IC设计不再是一份高门槛职业,AI已经吃下芯片设计这碗饭

人工智能利弊说 2023-06-29
2356 字丨阅读本文需 6 分钟

近日,一组研究人员使用简单英语而不是硬件描述语言,成功地设计了一款微处理器。ChatGPT等生成式人工智能正在以几个月前还不可能的方式帮助人们进行研究、学习和创造。如今它已经开始进入硬件设计等领域。

纽约大学坦登电气与计算机工程系以及网络安全中心的研究助理教授皮尔斯博士(Dr. Hammond Pearce)介绍说,他的团队研究项目Chip Chat的灵感来源于想要探索现有生成人工智能大语言模型(LLM)在硬件设计领域的能力和局限性的愿望。

“我们很想知道这些模型有多好,”他说,“很多人认为这些模型真的只是玩具,而我不这样认为,现在它们还没有无处不在,不过未来它的应用肯定会得到普及,这就是为什么我们做Chip Chat——几乎像是一个概念验证演示。”

大语言模型设计的IC首次制造出来

使用基于聊天的人工智能助手可以帮助解决芯片设计行业的一个巨大挑战:硬件描述语言(HDL)。虽然像Verilog这样的HDL代码对设计微处理器至关重要,但它们需要非常专业的知识。

硬件描述语言(HDL),是电子系统硬件行为描述、结构描述、数据流描述的语言。利用这种语言,数字电路系统的设计可以从顶层到底层(从抽象到具体)逐层描述自己的设计思想,用一系列分层次的模块来表示极其复杂的数字系统。

然后,利用电子设计自动化( EDA )工具,逐层进行仿真验证,再把其中需要变为实际电路的模块组合,经过自动综合工具转换到门级电路网表。接下去,再用专用集成电路 ASIC 或现场可编程门系列 FPGA 自动布局布线工具,把网表转换为要实现的具体电路布线结构。

硬件描述语言(HDL)的发展至今已有很多年的历史,并成功地应用于设计的各个阶段:建模、仿真、验证和综合等。到20世纪80年代,已出现了上百种硬件描述语言,对设计自动化曾起到了极大的促进和推动作用。但是,这些语言一般各自面向特定的设计领域和层次,而且众多的语言使用户无所适从。因此,急需一种面向设计的多领域、多层次并得到普遍认同的标准硬件描述语言。20世纪80年代后期,VHDL和Verilog HDL语言适应了这种趋势的要求,先后成为IEEE 标准。

皮尔斯博士说:“硬件描述语言面临的最大挑战是,没有多少人知道如何编写它们。成为这方面的专家很难,这意味着我们仍然有最好的工程师用这些语言做琐碎的事情,因为没有那么多工程师可以做这些事情。”

在他看来,人工智能可以加速工程师的产出,这样人工智能就可以快速完成简单的事情,工程师也可以把脑力集中在更难的事情上。

通过使硬件定义更容易生成,该团队相信他们可以使IC设计更容易访问,并使HDL专家能够专注于更重要的任务。根据该团队的说法,通过基于聊天的生成人工智能,工程师可以用简单的英语而不是HDL设计微处理器。

通过Chip Chat,该团队成功地设计了一个基于8位累加器的微处理器,其功能与可比较的PIC产品相同。然后将该芯片发送到Skywater 130nm穿梭机上进行制造。该团队声称,这项研究标志着LLM设计的IC首次真正制造出来。

ChatGPT等生成式AI在芯片设计领域的探索

谷歌人工智能在几个小时内设计出芯片

据谷歌称,谷歌的深度学习强化学习 (RL) 方法可以在比人类工程师少得多的时间内生成有效的布局,而且结果在质量上也不相上下。

2022年3月,谷歌研究院推出了PRIME,这是一种深度学习方法,利用现有的数据,如功率和延迟来创建加速器设计,比用传统方法设计的芯片更快、更小。

谷歌研究人员使用 10,000 个芯片平面图来训练他们的模型。人工智能生成的芯片设计时间不到六个小时。谷歌表示,这种方法已经被利用来实现谷歌的张量处理单元(TPU),这是谷歌基于云的机器学习应用的一部分。

EDA公司在AI设计系统上加倍投入

不仅仅是谷歌转向机器学习模型。像Synopsys和Cadence这样的EDA公司也在其最新工具中使用到AI技术。比如最近,Synopsys凭借其 Synopsys DSO.ai 自主芯片设计系统注册了 100 个商业流片。该系统最近的客户包括 意法半导体(ST)和 SK Hynix。

ST 和 Synopsys 于 2022 年 2 月初首次在微软的云端使用 DSO.ai 来设计工作芯片。使用 Synopsys 的 DSO.ai 设计系统,结合 Microsoft Azure 上的 Synopsys Fusion Compiler 和 IC Compiler,该工具将功耗、性能和面积 (PPA) 指标提高了 3 倍以上,总功耗降低了 25%,并且显著缩小了芯片尺寸。

除了芯片设计,人工智能还在芯片测试和验证中找到了应用——芯片制造商在这两个领域花费了大量时间。为了解决这一设计阶段的问题,西门子发布了Questa Verification IQ,这是一个帮助IC设计工程师加快验证过程的软件平台。

英伟达用GPU设计GPU

NVIDIA(英伟达)为芯片设计设计了另一种深度学习方法。该公司制作了一个名为PrefixRL的 RL 模型,证明 AI 可以从头开始学习电路设计,并使用最新的 EDA 工具制造更小、更快的电路。NVIDIA 的架构由 13,000 个使用 AI 技术设计的电路组成。

针对自动化单元迁移,该公司开发了NVCell,可以无错迁移92%的单元库。人类工程师可以对剩下的 8% 没有自动迁移的单元进行处理。NVIDIA 首席科学家 Bill Dally 表示:

“所以这就像一个 Atari 视频游戏,但它是一个用于修复标准单元中的设计规则错误的视频游戏。通过强化学习来研究和修复这些设计规则错误,我们能够基本完成我们标准的设计单元。”

国产芯片事业能否借AI超车?

芯片产业一直以来被人认为是高门槛、高投入、高资金,技术含量非常高的一项产业。没有一定的专业知识,是不可能去参与芯片设计的。但是有的AI在完全不一样了,这个研究团队中的一位成员表示:他完全不懂芯片,但他利用AI设计出了自己的第1块芯片,这简直是不可想象。

分析师认为,这种极具潜在应用价值的AI能力,可能会对整个半导体芯片的研发起到加速作用,从而消除芯片产业的地域性不平衡,让更多的芯片产业相对落后一点的国家,也能够顺序的追上先进的国家。

于是有人表示,那么这是不是意味着中国借助AI也能够迅速的设计出先进的芯片,从而达到甚至超过美国的芯片水平?

在我看来这种想法很美好,但是很难实现。之前倪光南院士就已经说过,中国的芯片设计能力,和世界水平是基本持平的。目前这种AI更多的只能用于设计芯片,而我们的在芯片设计这一块,已经达到了世界先进水平,使用它并不会让我们超过世界的顶级水平。

我们的芯片产业相对落后的,其实是制造水平。之所以落后,是因为受到了各种设备、软件等限制,比如说光刻机,以及其他的半导体设备以及eda软件等等。

而这些设备,是AI不能替代的,也不可能使用AI就可以跳过这些半导体设备,提升你的整体芯片制造水平,所以AI更多的还是只能在芯片设计上发力。

当然,虽然AI不能提升我们芯片产业的整体水平,但是我们也不能错过这个大机遇,如果利用AI,能够用我们的芯片设计水平一直保持着真正的领先全球,那何乐而不为呢?

由此可见,AI的产生可能真的会带来第4次工业革命,它的应用,绝不仅仅只是停留在设计芯片这一块,还会有各种各样的应用场景,等着我们去探索和发现。

文章来源: 核芯产业观察,互联网乱侃秀,EETOP半导体社区

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:人工智能利弊说
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...