Supermicro推出全新服务器为AI、HPC和云工作负载加速

10月15日消息,为企业级运算、储存、网络解决方案和绿色计算技术等领域的全球提供商SuperMicroComputer,Inc.(SMCI)宣布推出搭载NVIDIAAmperearchitectureGPU以及內建AI加速器的第3代IntelXeon可扩展处理器的全新系统(SupermicroX12系列)。

这些服务器专为需要低延迟和高应用性能的AI应用所设计。2UNVIDIAHGXA1004-GPU系统适于大规模部署具有高速CPU-GPU和GPU-GPU互连的现代AI训练丛集。而Supermicro2U2-Node系统则可通过共享电源供应和冷却风扇来减少能耗和成本,降低碳排放,同时可匹配工作负载选用多款GPU加速器。这两款系统皆内含由目前最新的IntelSoftwareGuardExtensions(IntelSGX)实现的高级安全功能。

Supermicro总裁暨首席执行官CharlesLiang表示:“Supermicro工程师再度为我们丰富多元的高性能GPU服务器系列打造出了全新产品,相比于市场上的其他设计更能节省成本、空间以及能耗。凭借创新的设计,我们为客户的AI和HPC(高性能运算)工作负载,提供可搭载4个NVIDIAHGXA100(代号:Redstone)GPU加速器的2U高密度GPU系統。此外,我们的2U2节点系统经过独特设计,可共享电源供应和散热元件,进而降低营运成本以及对环境的影响。”

此款2UNVIDIAHGXA100服务器采用第3代IntelXeon可扩展处理器平台,支持IntelDeepLearningBoostTechnology,且针对分析、训练和推理工作负载进行了优化设计。此系统可搭载4颗A100GPU并以NVIDIANVLink技术完全互连,提供高达2.5petaflops的AI性能。其高达320GB的GPU内存,可加速企业数据科学以及AI方面的突破。对于如BERT大型推理等复杂型对话式AI模型,此系统比上一代GPU的演算快了4倍,而在BERT大型AI训练方面则有3倍的性能提升。

此外,这些系统采用高级散热和冷却设计,成为优先考虑节点密度和电源效率的高效能丛集的理想选择。这些系统还可以采用液冷系统,从而节省更多的运营成本。该平台亦支持IntelOptane持续型内存(PMem),在GPU上进行处理之前,可以将更大的模型储存在靠近CPU的内存中。对于需要多系统互动的应用,此系统还可以配备4张NVIDIAConnectX-6200Gb/s网速的InfiniBand卡,以1:1GPU-DPU的比例支持GPUDirectRDMA。

全新的2U2节点是一种节能的资源节省架构,设计能让每个节点支持至多3张双倍宽度的GPU。每个节点还配备一个具有多达40个核心、內建AI及HPC加速器的第3代IntelXeon可扩展处理器。广泛的AI、渲染和VDI应用都能从这种CPU和GPU的平衡设计中受益。该系统配备Supermicro的高级I/O模块(AIOM)扩充插槽,具有快速灵活的网络连接功能,可在运行工作负载和处理深度学习模式时负荷庞大的数据流量,满足高度需求的AI/ML应用程序、深度学习训练和推理。本系统也是多运行个体的高级云游戏和许多其它计算密集型VDI应用程序的理想选择。此外,虚拟内容交付网络(vCDN)能满足对流媒体服务日益增长的需求。系统内建的备用的电源供应器,能供任何一个节点都能在发生故障时使用相邻节点的电源供应器。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2021-10-15
Supermicro推出全新服务器为AI、HPC和云工作负载加速
【TechWeb】10月15日消息,为企业级运算、储存、网络解决方案和绿色计算技术等领域的全球提供商SuperMicroCompute

长按扫码 阅读全文