百度AI芯片再进一步!明年初量产,由三星代工采用14nm工艺
自主可控的 AI 芯片和深度学习框架,是构建自主 AI 生态的关键,其中量产是衡量技术开发的最后一关。百度昆仑再进一步,至此百度和阿里都为其云上芯片栓上了一层自主化保险。
去年 7 月,百度发布了首款云端全功能 AI 芯片「昆仑」。时隔一年多,昆仑终于走上量产议程,采用三星 14 纳米工艺和 i-Cube TM 封装解决方案。
这是百度和三星的首次代工合作,百度选择三星代工可看出其在工艺和制造资源上的差异化打法(阿里首颗云端 AI 芯片含光 800 采用 12nm 制程),百度提供先进的 AI 平台来最大化 AI 性能,三星将把代工业务扩展到专为云计算和边缘计算设计的高性能计算(HPC)芯片领域。
机器之心 12 月 18 日消息,据三星官网消息显示,百度首款用于云计算和边缘计算的昆仑 AI 芯片已经完成研发,由三星代工明年初实现量产。
昆仑芯片将基于百度针对云、边缘和人工智能的 XPU 神经处理器架构构建,采用三星 14 纳米工艺和 i-Cube TM 封装解决方案。
三星的 14nm 工艺是其最广泛使用的制造节点之一,该工艺的晶体管密度为 32.5 MTr /mm,主要用于英伟达的 GeForce 10 系列,以及许多高通和三星芯片。它有多种变体,包括 14nm LPE(Low Power Early)和 14nm LPP(Low Power Plus)。
目前三星已经为高通、苹果、Nvidia 和许多其他厂商生产芯片,并且还将其 14nm 工艺许可给美国半导体公司 GlobalFoundries。
三星电子代工行销副总裁 Ryan Lee 表示,「对于三星代工来说,百度昆仑是一个重要的里程碑,因为我们正在通过开发和批量生产 AI 芯片将业务领域从移动扩展到数据中心应用。三星将提供从设计支持到尖端制造技术(例如 5LPE,4LPE 以及 2.5D 封装)的全面工艺解决方案。」
在制造工艺布局上,全球各大半导体公司都在广泛布局。英特尔进入 10nm 工艺时代,并将推出 7nm,台积电、三星也纷纷完成 7nm 工艺,并将推出 5nm、3nm。
前段时间台积电表示,早期 5nm 测试芯片良率 80%,明年或迎来大规模量产。台积电声称,5nm EUV 工艺的整体改变在于:逻辑密度增加约 1.84 倍,能效增益 15%,功耗降低 30%。目前对 256Mb 的 SRAM 和一些逻辑芯片进行测试,平均产率为 80%,产率峰值大于 90%。
制造工艺一定程度上决定了处理器的集成度。由于在 AI 和 HPC 等各种应用中需要更高的性能,因此芯片集成技术变得越来越重要。
三星的 I-Cube 技术通过插入器连接逻辑芯片和高带宽存储器,可通过利用三星的差异化解决方案以最小的尺寸提供更高的密度/带宽。
与以前的技术相比,这些解决方案将电源/信号完整性提高了 50%以上,从而最大限度地提高了产品性能,预计 I-Cube 技术将标志着异构计算市场的新纪元。三星还在开发更先进的封装技术,包括再分配层(RDL)插入器和 4x,8x HBM 集成封装。
百度昆仑AI芯片明年初量产
最开始,百度开始尝试为深度学习而设计的现场可编程门阵列 (FPGA) 芯片,后逐步演进成「昆仑」项目,昆仑的速度比百度的第一个 FPGA 芯片快 30 倍,并且能够达到每秒 260 tera-operations(TOPS) 和 512 GB /秒的内存带宽,并以 150 瓦的功率提供每秒 260 Tera 操作(TOPS)。
此外,该芯片使用于自然语言处理的预训练模型 Ernie 的推理速度比传统 GPU / FPGA 加速模型快三倍。
利用昆仑的极限运算能力和能效,百度可以有效支持多种功能,包括大规模的 AI 工作负载,例如搜索排名、语音识别、图像处理、自然语言处理、自动驾驶和 PaddlePaddle(飞桨)等深度学习平台。
去年 7 月,百度正式推出首款云端全功能 AI 芯片「昆仑」,其中包含训练芯片昆仑 818-300,推理芯片昆仑 818-100。昆仑可应用于云和边缘场景,例如数据中心、公共云和自动驾驶汽车。
早在 2011 年,百度就已经开始使用专门为深度学习而设计的现场可编程门阵列(FPGA)芯片。随着 AI 芯片的发布,百度也逐渐加入谷歌、英伟达、英特尔和其他许多制造专门用于人工智能处理器的科技公司的行列。
这是百度和三星的首次代工合作,百度选择三星代工可看出其在工艺和制造资源上的差异化打法,百度提供先进的 AI 平台来最大化 AI 性能,三星将把代工业务扩展到专为云计算和边缘计算设计的高性能计算(HPC)芯片领域。
作者暂无likerid, 赞赏暂由本网站代持,当作者有likerid后会全部转账给作者(我们会尽力而为)。Tips: Until now, everytime you want to store your article, we will help you store it in Filecoin network. In the future, you can store it in Filecoin network using your own filecoin.
Support author:
Author's Filecoin address:
Or you can use Likecoin to support author: