近日,nvidia宣布,多家领先的计算机制造商将发布首批基于nvidia grace cpu超级芯片和grace hopper超级芯片的系统,这些系统将用于数字孪生、ai、hpc、云图形和游戏等各类工作负载。
华硕、富士康工业互联网、技嘉科技、云达科技、超微、纬颖等公司将提供用于数字孪生、ai、高性能计算、云图形和游戏的全新数据中心系统预计从2023年上半年开始,华硕、富士康工业互联网、技嘉科技、云达科技、超微和纬颖将陆续推出几十款。基于grace的系统将与x86和其他基于arm的服务器一同为客户提供广泛的选择空间,助力其数据中心实现高性能和高效率。
nvidia超大规模和hpc副总裁ian buck表示: “现在有一种新型数据中心正在兴起,即通过处理和挖掘海量数据来实现智能的′ai工厂′。nvidia正在与米乐官网app的合作伙伴联手打造助推这一转变的系统。基于nvidia grace超级芯片的新系统将为全球新市场和行业注入加速计算的力量。”
即将推出的服务器基于采用grace cpu超级芯片和grace hopper超级芯片的四类全新系统设计。grace cpu超级芯片和grace hopper超级芯片是nvidia在最近两场gtc大会上发布的。2u外形设计为原始设计制造商和原始设备制造商提供了蓝图和服务器底板,助力其将适用于nvidia cgx云游戏、nvidia ovx™数字孪生、nvidia hgx ai和hpc平台的系统快速推向市场。
大幅加速现代化工作负载
上述两种nvidia grace超级芯片米乐体育官方下载的技术支持多种系统架构中的各类计算密集型工作负载。
● grace cpu超级芯片搭载两块通过nvlink®-c2c互连技术连接的cpu芯片,内置多达144个高性能arm v9核心,并且带有可伸缩矢量扩展和每秒1 tb的内存子系统。这一开创性的设计可实现最高的性能,并且内存带宽和能效两倍于当今领先的服务器处理器,可满足要求最为严苛的hpc、数据分析、数字孪生、云游戏和超大规模计算应用。
● grace hopper超级芯片在一个集成模块中,通过nvlink-c2c将nvidia hopper gpu与grace cpu互联,可满足hpc和超大规模ai应用的需求。借助nvlink-c2c互连技术,grace cpu向hopper gpu的数据传输速度比传统cpu提升15倍。
广泛的grace服务器产品组合适用于ai、hpc、数字孪生和云游戏
grace cpu超级芯片和grace hopper超级芯片服务器设计组合包括单路、双路和四路配置的单底板系统,服务器制造商可根据客户需求,为这些系统自定义四种专用于特定工作负载的设计:
● nvidia hgx grace hopper系统:用于ai训练、推理和hpc,搭载grace hopper超级芯片和nvidia bluefield-3 dpu。
● nvidia hgx grace系统:用于hpc和超级计算,采用纯cpu设计,搭载grace cpu超级芯片和bluefield-3。
● nvidia ovx系统:用于数字孪生和协作式工作负载,搭载grace cpu超级芯片、bluefield-3和nvidia gpu。
● nvidia cgx系统:用于云图形和游戏,搭载grace cpu超级芯片、bluefield-3和nvidia a16 gpu。
nvidia正在扩展nvidia认证系统计划,以涵盖采用nvidia grace cpu超级芯片和grace hopper超级芯片的服务器以及x86 cpu。预计首批oem服务器认证将在米乐官网app的合作伙伴系统出货后不久完成。
软件支持
grace服务器产品组合针对nvidia丰富的计算软件堆栈进行了优化,包括nvidia hpc、nvidia ai、omniverse和nvidia rtx。
评论