【锋巢网】
英伟达在其年度GTC会议上宣布了一系列专注于人工智能的企业产品。其中包括其新型硅结构Hopper的细节;第一个采用这种架构的数据中心GPU H100;一个新的Grace CPU“超级芯片”;以及建造该公司声称将是世界上最快的人工智能超级计算机Eos的模糊计划。
英伟达从过去10年的人工智能热潮中受益匪浅,其gpu与流行的数据密集型深度学习方法完美匹配。英伟达表示,随着人工智能行业对数据计算需求的增长,它希望提供更强大的火力。
该公司特别强调了一种名为Transformer的机器学习系统的流行。这种方法成果惊人,从OpenAI的GPT-3这样的语言模型到DeepMind的AlphaFold这样的医疗系统,无所不有。这些模型在几年的时间里呈指数级增长。例如,当OpenAI在2019年推出GPT-2时,它包含15亿个参数(或连接)。两年后,当谷歌训练出一个类似的模型时,它使用了1.6万亿个参数。
英伟达产品管理高级总监帕雷什•哈里亚在新闻发布会上表示:“训练这些巨型模型仍然需要数月时间。”“所以你解雇了一份工作,然后等上一个半月,看看会发生什么。减少训练时间的一个关键挑战是,随着数据中心gpu数量的增加,性能收益开始下降。”
英伟达表示,新的Hopper架构将有助于改善这些困难。该架构以计算机科学家先驱、美国海军少将格蕾丝•霍珀的名字命名,专门用于将Transformer模型在H100 gpu上的训练速度比上一代芯片提高6倍。而新的第四代Nivida NVlink可以连接到256 H100 gpu,带宽比上一代高9倍。
H100 GPU本身包含800亿个晶体管,是第一个支持PCle Gen5和HBM3的GPU,内存带宽可达3TB/s。英伟达表示,H100 GPU在FP16、FP32和FP64运算能力上比上一代A100快3倍,在8位浮点运算能力上快6倍。
“对于巨型变形金刚模型的培训,H100将提供高达9倍的性能,过去需要数周的培训在几天内完成,”Kharya说。
该公司还发布了一款新的数据中心CPU——Grace CPU Superchip,它由两个CPU通过新的低延迟NVLink-C2C直接连接起来。该芯片的设计是为了“服务于大规模的高性能计算和人工智能应用”,与新的基于hopper的gpu一起,并可用于仅cpu系统或gpu加速服务器。它有144个Arm核和1TB/s的内存带宽。
除了硬件和基础设施方面的新闻,英伟达还宣布了对其各种企业人工智能软件服务的更新,包括Maxine(一种用于提供音频和视频增强的SDK,旨在支持虚拟化身等功能)和Riva(一种用于语音识别和文本语音转换的SDK)。
该公司还透露,它正在建造一款新的人工智能超级计算机,称一旦部署,将是世界上速度最快的。这台名为Eos的超级计算机将使用Hopper架构建造,包含约4600 H100 gpu,提供18.4 exaflops的“人工智能性能”。该系统将仅用于英伟达的内部研究,该公司表示,该系统将在几个月内上线。
在过去的几年里,一些对人工智能有浓厚兴趣的公司已经建造或宣布了自己的内部“人工智能超级计算机”,用于内部研究,包括微软、特斯拉和Meta。这些系统无法直接与普通的超级计算机进行比较,因为它们运行的精度较低,这使得许多公司能够通过宣布世界上最快的计算机而迅速相互超越。
然而,在他的主题演讲中,英伟达首席执行官黄仁勋表示,Eos在运行传统的超级计算机任务时,可以运行275千万亿次每秒的计算,比“美国最快的科学计算机”(峰会)快1.4倍。“我们希望Eos成为世界上速度最快的人工智能计算机,”黄说。Eos将成为我们的oem和云合作伙伴最先进的人工智能基础设施的蓝图。”