英伟达称已在GPU芯片设计流程中大规模部署AI

4月14日消息,NVIDIA不但打造了强大的AI GPU,在全世界带动了新一轮的AI浪潮,自己内部也在大规模部署AI,包括GPU芯片设计流程。

NVIDIA首席科学家Bill Dally在与谷歌首席科学家Jeff Dean对话时提到,NVIDIA已经在芯片设计阶段大量应用AI,包括设计探索、标准单元库开发、Bug处理、验证等不同阶段。

不过他强调,使用AI进行完全端到端的自动化芯片设计,依然为时尚早,但何时能够实现,他不愿意轻易预言。

s_992f34aa987b47cc82b824d1583886bb.jpg

Dally分享了一个AI芯片设计的具体案例。

以往,NVIDIA将标准单元库迁移到全新的制程工艺,需要一个8人团队工作10个月,也就是80人月的工作量。

如今,NVIDIA有了基于强化学习的工具NB-Cell,已迭代两三代,如今只需一块GPU显卡运行一夜,即可完成上述工作。

更关键的是,AI工具生成的单元在面积、功耗、延时方面,都达到甚至超越了人工设计的水平,从而可以快速部署新工艺。

Dally还提到了另一款内部工具Prefix RL,针对的是一个长期研究的难题,即进位超前链中的超前级布局。

他声称,AI工具生成的布局,是“人类工程师永远无法想到的”,而且关键性能指标比人工设计高了20-30%。

这表明,NVIDIA使用AI不仅仅是为了提高效率、节省时间和人工,更是为了探索超出人类常规直觉的设计方案。

s_c517440f9ce64ca5aacac4a5f8c4053e.jpg

Prefix RL

在更宏观的层面上,Dally还透露,NVIDIA已经在内部运行两款大语言模型:Chip Memo、Bug Nemo。

这些大模型基于NVIDIA专有数据进行了微调,包括多年来GPU设计的寄存器传输级(RTL)代码、架构文档。

Dally表示,它们带来的实际收益之一,就是初级工程师遇到问题后,可以直接向大模型提问并获得答案,不再需要反复向资深设计师请教,后者也可以专注于更高价值的工作。

同时,它们还能帮忙汇总Bug报告,并协助分配至对应模块或工程师。

值得一提的是,NVIDIA似乎没有因为AI工具带来的效率提升,而裁掉初级员工,反而是通过更高效的方式,培养他们快速进步。

相比于很多企业动不动用AI替代和淘汰员工,或许,这才是AI最平衡的应用之道。

通知公告
编辑观点
理事会
参考资料
版权声明

凡《网络安全与数据治理》(原《信息技术与网络安全》)录用的文章,如作者没有关于汇编权、翻译权、印刷权及电子版的复制权、信息网络传播权与发行权等版权的特殊声明,即视作该文章署名作者同意将该文章的汇编权、翻译权、印刷权及电子版的复制权、信息网络传播权与发行权授予本刊,本刊有权授权本刊合作数据库、合作媒体等合作伙伴使用。同时,本刊支付的稿酬已包含上述使用的费用,特此声明。

《网络安全与数据治理》(原《信息技术与网络安全》)编辑部