AI“入侵”芯片制造:将AI做到芯片“骨子里”,主流厂商如何布局?

芯闻速递 2022-11-30
4225 字丨阅读本文需 10 分钟

目前人工智能(AI)正在变革多个行业,芯片行业也不能“幸免”!

有一个很有趣的现象:人工智能正在帮助推动人工智能芯片的进步。早在2021年6月,谷歌就利用AI来设计其TPU芯片。谷歌表示,人工智能可以在不到6小时的时间内完成人工需要数月时间完成的芯片设计工作。《Nature》的一篇评论称这项研究是一项“重要成就”,并指出此类工作可以帮助抵消摩尔定律的终结。除此之外,英伟达已经开始使用人工智能来有效地改进和加速 GPU 设计;三星也已经谈论到了使用人工智能设计芯片。

但这远不是人工智能辅助芯片的唯一应用,AI技术正渗透到更多芯片业的核心环节,其中在制造这一芯片产业链的关键环节,AI也在悄然发力。

芯片制造环节,良率越来越受到考验

现在几乎所有的应用包括5G、物联网、汽车、数据中心等的实现与发展都建立在更高性能、更低功耗、更大算力的芯片的基础之上。芯片的需求大幅提升,而芯片的供应却跟不上需求,提升现有产品的良率是业内公认的有效措施。

然而,良率的提升却给芯片设计商和制造商都带来了很大的挑战。

制造是半导体产业链的关键一环。整个制造过程主要分为八个步骤:晶圆加工 - 氧化 - 光刻 - 刻蚀 - 薄膜沉积 - 互连 - 测试 - 封装,每个芯片的制造步骤又需要数百个工艺。芯片生产制造的周期动辄两三个月,生产过程中产生的数据量庞杂,涉及的参数变量繁多,任何一点微小的变化都能影响到最终芯片的良率。

遵循着摩尔定律的工艺制程演进是芯片实现高性能计算最为有效的途径之一,也是产业追逐的方向。而随着芯片工艺来到更先进的5nm、3nm,芯片设计复杂度呈几何倍数增加,生产流程的不断加长,芯片的制造变得极其复杂与精密,良率变得极具挑战。据半导体设备供应商巨头应用材料公司表示,从2015年到2021年,芯片制造的工艺步骤的数量增加了48%。相比成熟节点,先进节点的基准良率也越来越低。

而在半导体的商业化进程中,良率直接关系到芯片的产量、生产成本与企业的盈利能力。所以说,仅仅通过芯片工艺技术的改进来提高PPA变得越来越困难,而且从性价比来看,芯片流片的费用越来越贵,只有极少数的芯片公司才能负担得起。

因此,既要提升芯片的良率又要在经济上可行,必须要多管齐下,探索创新的方法。在如今这个高度自动化的时代,引入人工智能/机器学习等技术,推动芯片的制造流程,提升芯片的良率,进而帮助我们快速弥合算力供需之间的差距。

AI的强势出击

芯片制造是世界上最昂贵的生产工艺之一。芯片产量决定了诸如英特尔、三星、台积电等晶圆厂商的成败。他们不惜投入大量资源来使晶圆厂全天候运营,以实现长期利润最大化。

半导体制造商需要依靠扫描、测试和诊断来帮助故障分析以解决良率问题。后端的缺陷检测无疑是提升芯片良率的一大“把关者”。现在大多数先进的SoC使用了极小的制造工艺,有的甚至引入EUV光刻技术,对制造商来说更加难以定位芯片上的微小故障和缺陷;并且在制造3D结构和执行复杂的多图案化步骤时,其中一些小的差异会累积以产生良率抑制缺陷,如果其中的一些微小的差异被延迟检测到,那么之后进行的所有流程步骤基本上都是浪费时间和金钱。他们发现缺陷的时间越长,损失的钱就越多。

为了解决这一行业难题,半导体设备供应商应用材料(Applied Materials)将人工智能融入到晶圆检测流程,从2016年开始应用材料就使用ExtractAI技术开发Enlight系统,于 2020 年推出了新一代Enlight光学半导体晶圆检测机,该检测设备引入了大数据和AI技术。Enlight 系统只需不到一个小时就可以绘制出晶圆上数百万个潜在缺陷。

应用材料表示,结合他们的Enlight光学检测、ExtractAI技术和SEMVision eBeam审查功能,他们解决了最困难的检测挑战:将影响良率的缺陷与噪声区分开来,还可以实时学习和适应工艺变化。而且通过生成大数据,Enlight系统将捕获关键缺陷的成本降低了3倍。这将使晶圆厂可以比以往更快地接收更多可操作的数据,从而降低拥有成本并加快产量和上市时间。目前,这些最新的工具集已经安装在多个晶圆厂中,这些晶圆厂都在使用它来缩短最新技术的良率。

应用材料公司表示,Enlight是其产品线中第一个使用人工智能来改进生产过程的系统,还有更多人工智能增强系统正在筹备中。

检测设备是后期制造环节提升良率中的一个措施,而如果能在IC开发的物理设计阶段就采取必要的措施,将良率的把控逐步转移到芯片前端设计,来确保能够准确地制造设计,那么就能提高产量并防止产品交付给客户后可能出现的缺陷。这在行业内称之为DFM(Design-for-Manufacture),该概念几乎存在于所有工程学科中。

在芯片设计端的DFM,EDA供应商们正致力于将各种AI功能集成到工具流中。

举例来看,西门子EDA的Calibre SONR工具就内嵌了机器学习引擎TenssorFlow,通过将并行计算和ML技术融入到EDA工具中去,使得EDA工具具有更快的运行速度。Calibre物理验证平台涵盖了Signoff级验证的Layout、Mask以及芯片制造过程中所有验证步骤。Calibre的产品线还在不断扩充,通过产品之间的互补优势真正做到从芯片设计端一路延伸至芯片制造端。这不仅能够帮助设计人员可以胸有成竹地实施物理验证和交付设计,并能大幅提升流片良率,缩短芯片产品上市时间并加快创新速度。

仿真一直是芯片设计师的痛,随着先进工艺和超低电压的发展需求,仿真领域面临着数据量大、时序库提取时间长、暴力穷举太慢、STA工具做内差法精度不够等痛点,而如果利用机器学习算法,通过大数据的方式分析已有数据库,通过多个表面模型互联,构建一个多维模型,‍‍通过这样模型的创建去推测‍出一个新的‍‍ Corner下的数据库。这样的方式与SPICE仿真或者内差法相比,可以说是跨代竞争,无论是速度还是精度,都有巨大的优势。西门子EDA推出的Solido机器学习技术,能够对单一时序库文件的提取加速近百倍(相较传统SPICE方式),对整体时序库提取速度提升2到3倍,同时还可以把精度控制在可接受的范围之内。

验证也在伴随着SoC的复杂而日益复杂和困难的一项工作,验证工作在芯片研发中所占的比重也越来越大,因为如此繁重的验证工作必须保证百分之百正确才能确保流片的成功。关于这个挑战,也可以交给AI,机器学习被用来自动选择解析器策略,以执行西门子EDA OneSpin中与形式验证有关的断言证明。

随着工艺和设计向前推进,良率丢失的根因变得越来越复杂,故障隔离技术面临挑战,提高诊断分辨率成为减少良率爬坡时间的首要任务。在这方面,西门子EDA 的Tessent Diagnosis的版图感知和单元感知技术,结合Tessent YieldInsight的无监督机器学习技术,即Root Cause Deconvolution(简称为RCD),可以找到最可能的缺陷分布并移除低概率怀疑点,从而提高分辨率和准确性。目前格芯、UMC和中芯国际等都在使用该技术来快速的定位到影响良率的准确根因并快速实现良率提升。

可以看出,借助AI/ML技术,EDA工具越来越成为解决良率爬升的利器。人工智能/机器学习已经可以在先进工艺节点良率爬升、机器学习技术在标准单元变量感知型时序库特征提取、在量产化诊断驱动良率分析中的应用、显著缩短 ASIC/FPGA 验证周期等自动化IC设计新领域,都能发挥强大的作用。

将AI能力做到芯片“骨子里”

今天,几乎所有硬件设备都被冠以“智能”二字作为命名开头,而相比终端厂商在软件和算法层面做的优化,高通是真的“把AI做到芯片骨子里去了”。

毕竟,高通是一家做芯片的公司,而这种从芯片底层开始建立的AI技术优势,也正是高通所独有的优势之一。

正如前不久发布的第二代骁龙8芯片,首先从芯片本身的AI性能及能效比来看,就十分过硬,这也是实现一切出色AI体验的基石。

没有一个芯片做“好底子”,体验只能是“空中楼阁”。

这次在芯片的硬件架构设计层面,高通的AI引擎有着不少技术创新,比如高通在Hexagon处理器中加入了专用的供电系统,进一步提升芯片处理的能效比。

此外,Hexagon处理器支持了微切片推理,针对比较复杂的神经网络推理任务,Hexagon处理器可以把单个神经网络拆分成几万个微Tile,然后把它们分别分配到张量、标量、向量加速器上,从而提高整个神经网络的推理速度。

高通微切片推理示意图

而Hexagon处理器中核心的张量加速器单元则将尺寸翻了一倍。

在这些升级点的共同作用下,这一代高通AI引擎的AI性能提升了4.35倍,能效比也进一步提升了60%,可以更加高效地运行Transformer网络,进而提升在计算机视觉、实时转录、情感分析、实时翻译、自然语言处理这些我们几乎每天都要用到的功能中的表现。

值得一提的是,这次新一代骁龙AI引擎还首次支持了INT4,与目前行业中能够做到的INT8相比,功耗进一步降低了60%,但性能却提升了90%。

根据高通实测,这样的能效比提升,可以明显提升第二代骁龙8在自然语言处理、超分辨率、人脸检测、背景虚化等常用场景中的实际性能表现。

除了Hexagon处理器,在高通AI引擎中的传感器中枢里,高通还直接新加入了一个AI处理器,让传感器中枢的整体AI性能翻倍,而日常手机对于我们使用中任何场景的检测、感知,几乎都离不开这一中枢模块。

不仅是硬件层面打好了基础,在软件以及开发者生态方面,高通这次也是做足了功课,让这颗AI芯片的能力可以更好地在实际应用中发挥作用。

就在今年6月,高通发布了自家首个统一的高通AI软件栈(Qualcomm AI Stack),我们可以形象的将其理解为高通AI开发“百宝箱”,需要什么能力,开发者便可以从中快速获取。

实际上,高通将所有业务线的AI软件功能访问权限,集成在了一个统一的软件栈中,来提供跨智能网联终端的完整解决方案,来便利开发者进行面向不同智能终端的AI模型和软件迁移以及开发。

从丰富的AI模型库和模型开发工具、支持不同类型的框架、支持高通AI引擎Direct、支持不同的runtimes,再到支持分析器和仿真工具,基本上开发者们需要的技术、工具和接口都能在其中找到。

用更直观的话来说就是,高通让开发者和客户可以根据自己的实际需求进行模型的开发和优化,“一次开发,就可以将解决方案跨高通所有产品线进行迁移”也成为了高通在AI软件领域的独特优势之一。

从硬件设计、软件算法到开发者生态,高通在发布会上说的“专为AI设计的芯片”绝非虚言,高通这次是铁了心要把AI技术刻在芯片的骨子里。

在移动芯片产业技术创新遇到瓶颈的当下,高通选择用AI技术来建立新的移动芯片标准,将技术发展推向了一个新的节点。

主流芯片厂商加码边缘侧AI技术

随着人工智能重心不断向边缘侧迁移,越来越多芯片厂商开始加强边缘侧产品的开发布局。本次大会上,高通便积极推动终端侧AI的普及与生态合作。高通产品管理副总裁Ziad Asghar表示,高通致力于通过提供高效的硬件、算法和软件工具,持续推动性能功耗比提升。以骁龙8+支持的第七代高通AI引擎为例,在既定功耗下,其相比前代将AI能力提升了一倍以上。

面对英伟达、英特尔等国际厂商在云端AI芯片上的竞争优势,很多国内厂商也选择在边缘AI芯片方面取得突破,如华为推出的昇腾系列AI处理器、昆仑芯科技推出的昆仑芯系列芯片、阿里平头哥推出的含光系列AI芯片等。

由中国科学院自动化研究所和华为联合开发的全球首个三模态大模型“紫东太初”,获得本届大会的最高奖项SAIL奖,便是基于昇腾AI软硬件平台打造。当前AI技术存在“一专一能”、小样本学习能力欠缺、跨模态语义鸿沟的痛点,“紫东太初”大模型通过跨模态多任务自监督学习,有望解决AI应用中的长尾问题。

人工智能视觉感知芯片公司爱芯元智也展示了全系列端侧边缘侧AI芯片及在智慧城市、智慧交通等领域应用解决方案。近年来,边缘侧AI技术的引入,为图像、视频画质处理带来重要提升作用,如在夜晚暗光场景下智能检测车辆盲区的人、车、骑行者、路沿、栏杆等障碍物,进行预警及报警等,显示了边缘侧AI的应用前景。

结语

通过各个领域的芯片厂商的创新,人工智能技术已经在很多领域显示出其优势,应用AI不仅可以大幅缩短芯片设计所需时间,芯片缺陷检测的时间,降低芯片设计公司的人工成本等,还能有效满足市场对集成电路复杂程度的需求。利用人工智能技术来帮助设计和制造芯片已经成为大势所趋。相信在不久的未来,会有更多在芯片生产领域对人工智能技术的探索和应用。

文章来源: 半导体行业观察,智东 西,中国电子报

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:芯闻速递
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...