资讯详情

【AI周报】英伟达用AI设计芯片;不完美的Transformer要克服自注意力的理论缺陷

「如果使用人力,我们需要移植一个新的技术库 10 人左右的团队工作了半年多,但在帮助下 AI,我们只需要几天的时间来运行 GPU 大部分工作都可以完成。」

近年来,芯片设计已成为一种 AI 谷歌、英伟达、三星、西门子等公司计划或开始尝试在芯片设计中使用它 AI。其中,同时在芯片设计和 AI 英伟达在该领域深耕多年,具有得天独厚的优势。前段时间 GTC 会上,英伟达首席科学家、计算机架构大师 Bill Dally 介绍了他们在这方面的进展和使用情况 AI 工具。

以下是 Bill Dally 在 GTC 会议介绍原文。

作为 AI 专家,我们自然用专家 AI 来设计更好的芯片。我们有几种不同的方法:一是利用现有的计算机辅助设计工具(并融入 AI),例如,我们可以画一个 GPU 用电位置的地图也可以预测电压网下降多少-电流乘以电阻压降,称为 IR 压降 CAD 工具上运行该流程需要三个小时。

这是一个迭代过程,所以有点麻烦。我们想训练一个 AI 模型处理相同的数据。我们做了一系列的设计来进行这样的操作,然后我们可以输入电源图,最后推断时间只有三秒钟。当然,我们需要花时间来计算特征提取 18 分钟,很快就能得到结果。

为了估计电路中不同节点的开关频率,我们使用图形神经网络而不是卷积神经网络。同样,我们可以比传统工具更快地获得非常准确的功率估计,而且只需要很少的时间。

我最喜欢的工作之一是用图神经网络预测寄生参数。这项工作以前需要很多时间,因为以前的电路设计是一个迭代过程,你必须画一个原理图,就像左边的图一样。但直到设计师使用这个原理图,你才知道它的性能如何 layout,提取寄生参数,然后运行电路模拟,发现设计可能不符合规格,以了解电路的性能。

接下来,设计师将修改原理图并再次通过 layout 验证电路的有效性。这是一项非常漫长、重复甚至不人道的劳动密集型工作。

现在,我们可以训练图神经网络来预测寄生参数,而无需 layout。因此,无需手动执行,电路设计师可以快速迭代 layout 步骤。事实表明,我们的神经网络对寄生参数的预测非常准确。

布局,布线挑战

我们的神经网络还可以预测布线拥塞(routing congestion),这对于芯片 layout 至关重要。在传统的过程中,我们需要制作一个网表(net list),通常需要几天的时间来运行布局和布线过程。但如果我们不这样做,我们将无法获得实际的布线拥塞,并发现原始布局的缺陷。我们需要以不同的方式重构和布局它 macro 避免出现下图所示的红色区域(电线过多,类似于交通堵塞)。

现在在神经网络的帮助下,我们可以获得这些网表,并使用图形神经网络大致预测拥塞的位置,准确性也非常高。这种方法暂时并不完美,但它可以显示问题区域,然后我们可以在没有完整布局和布线的情况下采取行动并快速迭代。

所有这些方法都在使用中 AI 评价人类已经完成的设计实际上更令人兴奋 AI 实际设计芯片。

我举两个例子。第一个是我们称之为 NV cell 该系统采用模拟退火和强化学习来设计我们的标准单元库(标准单元库是底层电子逻辑功能的集合,如 AND、OR、INVERT、触发器定器和缓冲器 )。所以每次技术迭代,比如从 7 纳米迁移到 5 纳米,我们都有单位库。事实上,我们有成千上万个这样的库,它们必须用新技术重新设计,并且有一套非常复杂的设计规则。

在加强学习的帮助下,我们放置晶体管,但随之而来的可能是一堆错误的设计规则,这是加强学习所擅长的。设计芯片就像雅达利游戏,但它是一款在标准单元中修复错误设计规则的游戏。通过加强学习、检查和修复这些设计规则,我们基本上可以完成标准单元的设计。

下图显示了工具的完成度 92% 没有设计规则或电气规则错误的单元库。这些单元中 12% 比人类设计的单元要小。一般来说,在单元复杂性方面,工具和人类设计的单元一样好,甚至比人类好。

这对我们有两个好处。一是节省大量劳动力。如果使用人力,我们需要移植一个新的技术库 10 人左右的团队工作了半年多,但在帮助下 AI,我们只需要几天的时间来运行 GPU 可以完成大部分可以自动化的工作(92%),然后由人完成剩下的工作 8%。很多时候,我们可以得到更好的设计,所以这种方法不仅节省了人力,而且比人类手工更有效。

原文链接:

https://www.hpcwire.com/2022/04/18/nvidia-rd-chief-on-how-ai-is-improving-chip-design/

本文结合《Explanation decisions made with AI》总结了算法的应用场景和可解释性分析。

英国的Information Commissioner’s Office (ICO)和 The Alan-Turing Institute 联合发布了《Explanation decisions made with AI》指南。该指南旨在帮助向受其影响的个人解释,为组织和组织提供实际建议 AI 帮助机构和组织遵循欧盟的程序、服务和决策GDPR 与个人信息保护相关的政策要求。该指南分为三个部分 1 部分:可解释 AI 基础知识;第 2 部分:可解释 AI 的实践;第 3 部分:可解释 AI 对机构 / 组织的意义。最后,指南给出了主流 AI 算法 / 模型的应用场景,以及这些算法 / 模型的可解释性分析可以根据实际任务中应用场景的特点来选择可解释的 AI 算法 / 参考模型。

本文结合《Explanation decisions made with AI》本指南重点对算法的应用场景和可解释性分析进行了梳理和总结。此外,我们还解释了医学领域可解释性方法的最新论文——基于注意力和药物不良事件预测的评估 SHAP 了解可解释性方法的最新研究进展。

最近一两年,transformer 已经在 NLP、CV 在多样化的任务中实现了卓越的性能,并具有统一性 AI 领域趋势。那么,大家真的需要推出近五年的注意机制吗?最近有论文检查 transformer 克服这种缺陷的方法有两种形式语言的理论缺陷。本文还研究了可能出现的长度泛化问题,并提出了相应的解决方案。

尽管 transformer 模型在许多任务中都非常有效,但它们很难处理一些看起来非常简单的形式语言。Hahn (2020) 提出引理 5)试图解释这一现象。这个引理是:改变输入符号只会使用 transformer 的输出改变 ??(1/),其中 ?? 输入字符串的长度。

因此,接收语言(即确定字符串是否属于特定语言)仅取决于单个输入符号,transformer 接受或拒绝字符串的准确性很高。但对大的 ??,它必须以较低的信心做出决定,即接受字符串的概率略高于 ?,拒绝字符串的概率略低于 ?。更准确地说,随着 ?? 交叉熵接近每个字符串 1 比特,这是最坏情况的可能值。

最近,在论文中《Overcoming a Theoretical Limitation of Self-Attention》圣母大学的两位研究人员使用以下两种正则语言(PARITY 和 FIRST)检验这种局限性。

Hahn 引理适用于 PARITY,因为网络必须关注字符串的所有符号,任何符号的变化都会改变正确答案。研究人员也选择了它 FIRST 作为适用于引理的最简单的语言示例之一。它只需要注意第一个符号,但引理仍然适用,因为它会改变正确的答案。

尽管这种引理可能被解释为什么有限 transformer 但研究人员展示了三种克服这种限制的方法。

分布式版本控制工具Git 2.6正式发布,由717个非合并提交,修复了向后兼容的缺陷UI、Wrkflow&功能、性能、内部实施、开发支持进行了修复与功能开发,其中* "git name-rev --stdin "已被弃用,使用时会发出警告。

该草案一共包括3个部分,分别是:WebAssembly Core Specification,描述了2.0版本的WebAssembly核心标准,是一种安全的、可移植的、为高效执行和紧凑表示而设计的低级代码格式;WebAssembly JavaScript Interface --2.0版提供了一个明确的JavaScript API,用于与WebAssembly进行交互;WebAssembly Web API --2.0版本,描述了WebAssembly与更广泛的网络平台的整合。

可移植C++库Boost 发布了1.79.0版本,该版本对库了进行了大量更新,涉及Asio、Assert、Atomic、Beast、Core、Describe、Filesystem、Geometry、Integer、IO、Iterator、JSON、LEAF、Log等。

标签: 15w3电阻

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台