AI 几小时设计芯片超越人类:谷歌 AlphaChip 登 Nature,已设计出三代旗舰 TPU

2024-09-27 www.dnxtw.com

谷歌的 AlphaChip,芯片布局可以在几个小时内设计,直接碾压人类专家!这种超人芯片布局已经应用于 TPU、CPU 包括全球硬件。人类设计芯片的方式已经被使用 AI 彻底改变。

能设计芯片的 AI 黑科技来了!就在刚才,谷歌 DeepMind 推出名为 AlphaChip 的 AI 系统。

无论是最先进的设计建筑 AI 模型的 TPU,还是数据中心 CPU,它在许多相关领域产生了广泛的影响。

在谷歌的许多芯片设计中,它都取得了优异的效果,比如 Axion 芯片(一种基础 Arm 通用数据中心 CPU)。

AlphaChip 加强学习的原理是设计芯片。

也就是说,芯片布局设计是一种游戏,就像 AlphaGo 同样,它也学会了如何在游戏中设计最好的芯片布局。

它可以在几个小时内生成超出人类水平或与人类专家相当的芯片布局。

现在已经用来设计多代了 TPU 芯片(TPU v5e、TPU v5p 和 Trillium)。与人类专家相比,AlphaChip 放置的块数越来越多,线长也减少了很多。

五年的布局,谷歌多代 TPU 全由 AI 设计

其实谷歌就是这样 AI,多年来一直在布局。早在 2020 2000年,该团队发表了一篇关于谷歌设计芯片布局的新强化学习方法的预印论文。

论文地址://down.dnxtw.com/d/file/bigpic/202409/27- pdf/2004.10746

后来在 2021 年,这项工作已经发表了 Nature 上,并开源。

论文地址://down.dnxtw.com/d/file/bigpic/202409/27-www.nature.com articles / s41586-021-03544-w

自从这项工作首次发布以来,谷歌一直在改进它。今天,团队发布了 Nature 附录详细描述了具体方法及其对芯片设计领域的影响。同时,他们还发布了预训练检查点,分享模型权重,并公布了模型名称 AlphaChip。

谷歌表示,AlphaChip 它是解决现实世界工作问题最早的强化学习方法之一。

它可以在几个小时内生成超人或类似的芯片布局,而不需要几周或几个月的人类。它设计的芯片布局已经用于包括数据中心和移动电话在内的世界各地的芯片。

为了设计 TPU 布局,AlphaChip 首先,在前几代芯片模块上进行实践,如片上和片间网络模块、内存控制器和数据传输缓冲区。这个过程被称为预训练。

然后,目前的团队 TPU 模块上运行 AlphaChip,产生高质量的布局。

不同于以前的方法,AlphaChip 类似于人类专家的工作方式,在解决更多芯片布局任务时变得更好、更快。

对于每一代新的 TPU,包括谷歌最新的 Trillium (第 6 代),AlphaChip 它们都设计了更好的芯片布局,并提供了更多的整体布局图,从而加快了设计周期,生成了更高性能的芯片。

条形图显示了三代谷歌 TPU 上 AlphaChip 芯片块的数量包括 v5e、v5p 和 Trillium

显示条形图,跟随 TPU 与物理设计团队生成的布局相比,AlphaChip 在 TPU 减少三代产品平均有线长度的工作原理:设计和奖励

事实上,芯片布局的设计并不是一项简单的任务。

一般来说,计算机芯片由许多相互连接的模块和多层电路元件组成,所有这些部件都由纤细的导线连接。

此外,还有许多复杂而交织的设计约束,必须同时满足。

由于设计的复杂性,60 芯片设计工程师多年来一直在努力规划芯片的自动化布局。

谷歌表示,AlphaChip 的研发,从 AlphaGo 和 AlphaZero 从中汲取经验。

众所周知,通过深度学习和博弈论,AlphaGo 和 AlphaZero 逐渐从 0 掌握了围棋、国际象棋和将棋的潜在规则。

AlphaChip 也采用了将芯片底层规划视为游戏策略的策略。

从空白格栅开始,AlphaChip 每次放置一个电路元件,直到所有元件完成。

然后,根据最终布局的质量给予模型奖励。

一种全新的「基于边」图神经网络让 AlphaChip,能够学习相互连接的芯片元件之间的关系,并在芯片之间进行泛化,使芯片能够泛化 AlphaChip 在设计的每一种布局上都有所改进。

论文地址://down.dnxtw.com/d/file/bigpic/202409/27-www.nature.com articles / s41586-024-08032-5预训练

与以往的方法不同,AlphaChip 是基于一种「强化学习」的方法。

这意味着当它解决更多芯片布局问题的例子时,它会变得更好、更快。

正如 Nature 论文(2021 年),以及 ISPD 2022 后续研究中讨论的预训练过程明显改善 AI 布局的速度、可靠性和性能。

顺便说一句,预训练也可以培养 LLM,像 Gemini、ChatGPT 令人印象深刻的能力。

谷歌自研究发表以来,为了重现论文中描述的方法,开源了一个软件库。

开发者可以使用这个库,对各种芯片进行预训练,然后将预训练模型应用到新块中。

GitHub 地址://down.dnxtw.com/d/file/bigpic/202409/27- google-research / circuit_training

基于最新的 AlphaChip 在培训过程中,研究人员在库中增加了预训练 20 个 TPU 块模型检查点(checkpoint)。

显然,如果不进行任何预训练,AlphaChip 无法从以往的经验中学习,从而避免学习问题。

培训和计算资源

随着 RL 智能体(任何 ML 对于模型的投入训练,其损失通常会逐渐减少。

最终,它将趋于稳定,这意味着模型对其正在执行的任务有尽可能多的了解。外部表现是「收敛」。

从训练到收敛是机器学习的标准做法。如果不遵循这条路径,可能会损害模型的性能。

AlphaChip 其性能随应用的计算资源而扩展 ISPD 2022 谷歌团队在论文中进一步探讨了这一特点。

论文地址://down.dnxtw.com/d/file/bigpic/202409/27- doi / 10.1145/3505170.3511478

正如 Nature 论文中描述的是在微调特定块时使用的 16 每个工作单位由每个单位组成 1 个 GPU 和 32 个 RL 通过多过程处理和共享环境组成 10 个 CPU。

综上所述,用较少的计算资源可能会损害性能,或者需要相当长的时间才能实现相同(或更差)的性能。

初始布局

在运行 Nature 在论文评估方法之前,团队使用了来自物理综合的近似初始布局来解决问题 hMETIS 标准单位集群规模不平衡。

RL 智能主体无权访问初始布局,标准单元放置不复杂。

尽管如此,谷歌作者还是做了一项消融研究,排除了使用任何初始布局,没有观察到 AlphaChip 性能下降。

如下表 1 所示。

具体来说,他们跳过了单位集群重新平衡的一步,但将会重新平衡 hMETIS 将集群不平衡参数降至最低设置(UBfactor = 1)。

因此,这使得 hMETIS 产生更平衡的集群。

基准

在 Nature 研究人员在论文中使用了它 10nm 以下制程的 TPU 实验中得到的结果是块。

这个技术节点的大小是现代芯片的典型尺寸。在之前的许多论文报告中,早期使用 45nm、12nm。

从物理设计的角度来看,这种老技术节点尺寸的芯片明显不同。

比如,在 10nm 在以下芯片中,通常采用多种图案设计,在较低密度下会导致布线拥堵。

来源:Pushing Multiple Patterning in Sub-10nm: Are We Ready?

因此,对于较早的技术节点尺寸,AlphaChip 为了更好地适应技术,可能需要调整其奖励函数。

展望未来:AI 整个芯片设计过程将会改变

自从 2020 自年度发布以来,AlphaChip 谷歌已经产生了每一代 TPU 超人芯片布局。

可以说,正是因为它,才能基于它进行大规模放大。 Transformer 架构的 AI 模型成为可能。

无论是在 Gemini 这样的 LLM,还是 Imagen 和 Veo 在这种图像和视频生成器中,TPU 都位于谷歌强大的生成型 AI 系统的核心。

另外,这些 AI 谷歌也有加速器 AI 外部用户可以通过谷歌云获得服务的核心。

一排谷歌数据中心 Cloud TPU v5p AI 加速器超算

如今,谷歌的三代旗舰 TPU 芯片已在世界各地的数据中心制造和部署。

随着每一代 TPU 的发展,AlphaChip 与人类专家的性能差距不断扩大。

从 TPU v5e 中的 10 个 RL 放置模块和 3.2% 接线长度减少,到 TPU v5p 中的 15 个模块和 4.5% 减少,再到 Trillium 中的 25 个模块和 6.2% 的减少。

AlphaChip 也是数据中心 CPU(Axion)谷歌尚未发布的其他芯片生成了超越人类的布局设计。

在谷歌研究的基础上,其他公司也进行了改进。

比如联发科不仅仅是用的 AlphaChip 加快了最先进芯片的开发,并在功耗、性能、面积等方面对芯片进行了优化。

如今,AlphaChip 只是一个开始。

谷歌对未来的大胆想象:AI 通过超人算法和硬件、软件和机器学习模型的端到端协同优化,将实现芯片设计全过程的自动化,芯片设计周期将显著加快,性能将解锁新领域。

谷歌表示,非常期待与社区合作,实现社区合作 AI 芯片和芯片 AI 闭环之间。

参考资料:

https://deepmind.google/discover/blog/how-alphachip-transformed-computer-chip-design/?utm_source=x utm_medium=social utm_campaign= utm_content=

https://x.com/JeffDean/status/1839308592408834559

广告声明:文本中包含的外部跳转链接(包括不限于超链接、二维码、密码等形式)用于传递更多信息,节省选择时间。结果仅供参考。计算机系统网络上的所有文章都包含了本声明。

相关阅读