amd在其财报电话会议上宣布,它将在其cpu产品组合中注入赛灵思的fpga驱动的ai推理引擎,首批产品预计将于2023年到来。这一消息表明,amd正在迅速采取行动,将其540亿美元收购赛灵思的成果纳入其产品线,但这并不完全令人惊讶--该公司最近的专利表明,它已经在实现将人工智能加速器连接到其处理器的多种方法方面进展顺利,包括使用复杂的3d芯片堆叠技术。
amd决定将其cpu与内置的fpga搭配在同一封装中并不完全是新的决定--英特尔在2015年底通过167亿美元收购altera获得的fpga组合中也尝试了同样的方法。然而,英特尔早在2014年就宣布了cpu fpga的组合芯片,甚至还演示了测试芯片,但芯片直到2018年才推出,而且只是以有限的实验方式,显然走到了死胡同。多年来,我们没有听到更多关于英特尔项目的消息,也没有听到它的任何其他衍生产品。
amd还没有透露其fpga产品的任何细节,但该公司将xilinx fpga芯片连接到其芯片的方法可能会更复杂一些。虽然英特尔利用标准的pcie通道和其qpi互连来连接其fpga芯片和cpu,但amd最近的专利表明,它正在开发一个加速器端口,以适应多种封装选项。
这些选项包括3d堆叠芯片技术,类似于它目前在其milan-x处理器中用于连接sram芯片的技术,将fpga芯片融合在处理器的i/o芯片(iod)之上。这种芯片堆叠技术将提供性能、功率和内存吞吐量方面的优势,但正如我们在amd现有的使用3d堆叠的芯片中看到的那样,如果芯片被放置在靠近计算模具的地方,它也会带来热挑战,阻碍性能。amd将加速器放在i/o芯片上的选择很有意义,因为这将有助于解决散热挑战,从而使amd能够从邻近的cpu芯片(ccd)中提取更多的性能。
amd也有其他选择。通过定义一个加速器端口,该公司可以在其他模具上面容纳堆叠的芯片,或者简单地在标准的2.5d实现中安排它们,使用一个独立的加速器芯片而不是cpu芯片(见上图)。此外,amd还可以灵活地将其他类型的加速器,如gpu、asic或dsp,带入游戏。这为amd自己的未来专有产品提供了大量的选择,也可以让客户将这些不同的芯片混合并匹配到amd为其半定制业务设计的定制处理器中。
随着数据中心定制化浪潮的继续,这种类型的基础技术肯定会派上用场,amd自己最近宣布的128核epyc bergamo cpu就证明了这一点,它配备了一种新型的 "zen 4c "内核,为云原生应用进行了优化。
amd已经使用其数据中心的gpu和cpu来解决ai工作负载,前者通常处理训练ai模型的计算密集型任务。amd将使用赛灵思fpga人工智能引擎主要用于推理,即使用预先训练好的人工智能模型来执行某种功能。
amd公司自适应和嵌入式计算集团总裁victor peng在公司财报电话会议上说,赛灵思已经将ai引擎用于图像识别和嵌入式应用和边缘设备(如汽车)的 "各种 "推理应用。peng指出,该架构是可扩展的,使其很适合公司的cpu。
推理工作负载不需要那么大的计算能力,而且在数据中心部署中比训练要普遍得多。因此,推理工作负载被大量部署在庞大的服务器群中,英伟达创造了较低功率的推理gpu,如t4,而英特尔则在其至强芯片中依靠硬件辅助的ai加速来解决这些工作负载。
amd决定用差异化的芯片瞄准这些工作负载,这可能使该公司在某些数据中心的部署上比英伟达和英特尔更有优势。不过,与以往一样,软件将是关键。amd首席执行官lisa su和peng都重申,该公司将利用赛灵思的软件专长来优化软件栈,peng评论说:"我们绝对致力于统一的整体软件,启用广泛的产品组合,但也特别是在ai方面。所以你会在财务分析师日听到更多关于这方面的信息,但我们肯定会在人工智能方面有所倾斜,包括推理和培训。"
amd的金融分析师日是2022年6月9日,我们肯定会在那时了解更多关于新的人工智能注入的cpu。
评论