登Nature两年,谷歌「AI 6小时设计芯片」遭打脸?大神Jeff Dean论文被官方调查,疑似隐藏源代码
新智元报道
新智元报道
【新智元导读】在2021年9月,由Jeff Dean领衔的谷歌大脑团队发表了一篇AI设计芯片的论文,曾引起业界轰动。然而,随后有多人发现这项工作并不能被复现,而且关键数据和代码被隐藏了,Nature也对此展开了调查。
编者按:请读者注意,本文中的性能声明已受到质疑,编辑们正在对这些问题进行调查,一旦调查结束,将酌情采取行动。
作者已撤回这篇文章,因为自文章发表以来,关于所报道论文所用方法,已出现了新信息,因此作者对于该论文贡献的结论发生了改变。而Nature也在对论文中的结论进行独立调查。
代码和论文不符
针对谷歌的这篇Nature和相关代码,一组来自UCSD的学者进行了非常深入的研究。
(1)使用商业物理合成工具的初始放置信息会如何影响CT结果 (2)CT的稳定性 (3)CT智能体的成本与商业EDA工具的「真实情况」输出之间的相关性 (4)更强基线手稿中研究的ICCADO4测试用例的性能
Nature共同一作长文回应
论文提出的RL方法已经用在了多代谷歌旗舰AI加速器(TPU)的生产上(包括最新的一代)。也就是说,基于该方法生成的芯片,已经被制造了出来,并正在谷歌数据中心运行。 亚10纳米的验证程度,远远超出了几乎所有论文的水平。 ML生成的布局必须明显优于谷歌工程师生成的布局(即超越人类水平),否则不值得冒险。
Nature进行了长达7个月的同行评审,其中,审稿人包括2名物理设计专家和1名强化学习专家。
TF-Agents团队独立复现了Nature论文的结果。
团队于2022年1月18日开源了代码。 截至2023年3月18日,已有100多个fork和500多颗星。 开发并开源这个高度优化的分布式RL框架是一个巨大的工程,其应用范围已经超出了芯片布局,甚至电子设计自动化领域(EDA)。 值得注意的是,在商业EDA领域,开源项目代码的做法并不常见。
在团队的方法发布之后,有很多基于其工作的论文在ML和EDA会议上发表,此外,英伟达(NVIDIA)、新思科技(Synopsys)、Cadence和三星等公司也纷纷宣布,自己在芯片设计中使用了强化学习。
ISPD论文并没有为「电路训练」(Circuit Training,CT)进行任何预训练,这意味着RL智能体每次看到一个新的芯片时都会被重置。 基于学习的方法如果从未见过芯片,学习时间当然会更长,性能也会更差! 团队则先是对20个块进行了预训练,然后才评估了表1中的测试案例。
训练CT的计算资源远远少于Nature论文中所用到的(GPU数量减半,RL环境减少一个数量级)。
ISPD论文附带的图表表明,CT没有得到正确的训练,RL智能体还在学习时就被中断了。
在发表Nature论文时,RePlAce是最先进的。此外,即使忽略上述所有问题,团队的方法不管是在当时还是在现在,表现都比它更加出色。
虽然这项研究标题是「对基于强化学习的宏布局的学习评估」,但它并没有与任何基于该工作的RL方法进行比较,甚至都没有承认这些方法。 ISPD论文将CT与AutoDMP(ISPD 2023)和CMP的最新版本(一款黑盒闭源商业工具)进行了比较。当团队在2020年发表论文时,这两种方法都还没有问世。
ISPD论文的重点是使用物理合成的初始位置来聚类标准单元,但这与实际情况无关。 物理合成必须在运行任何放置方法之前执行。这是芯片设计的标准做法,这也反映在ISPD论文的图2中。
作为预处理步骤,团队会重复使用物理合成的输出来对标准单元进行聚类。需要说明的是,团队的方法不会放置标准单元,因为之前的方法(如DREAMPlace)已经很好地对它们进行了处理。 在每个RL事件中,团队都会向RL智能提供一个未放置宏(内存组件)和未放置的标准单元簇(逻辑门),然后RL智能体会将这些宏逐一放置到空白画布上。 九个月前,团队在开源存储库中记录了这些细节,并提供了执行此预处理步骤的API。然而,这与论文中的实验结果或结论没有任何关系。
用AI,6小时就能设计一款芯片?
(1)状态编码关于部分放置的信息,包括netlist(邻接矩阵)、节点特征(宽度、高度、类型)、边缘特征(连接数)、当前节点(宏)以及netlist图的元数据(路由分配、线数、宏和标准单元簇)。
(2)动作是所有可能的位置(芯片画布的网格单元) ,当前宏可以放置在不违反任何硬约束的密度或拥塞。
(3)给定一个状态和一个动作,「状态转换」定义下一个状态的概率分布。
(4)奖励:除最后一个动作外,所有动作的奖励为0,其中奖励是智能体线长、拥塞和密度的负加权。
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章