黄仁勋
5月30日台北消息,COMPUTEX 2017今天开幕,NVIDIA(英伟达)在台北召开新闻发布会,创始人兼CEO黄仁勋在新闻发布会上推出GPU的更新和谈到NVIDIA基于GPU运算的人工智能规划。
如今,PC行业的持续下滑已经成为常态,黄仁勋认为,改变PC产业的动力来自于两个方面:一是Dennard Scaling的结束以及CPU指令等级平行运算的匮乏,摩尔定律在运行30年之后已经停止了;二是人工智能的革命已经开始了,深度学习、大数据以及GPU技术不断发展,推动人类进入了人工智能时代。
“到2025年,GPU的性能将是现在的1000倍。”黄仁勋表示。
CUDA是NVIDIA推出的通用并行计算架构,可以帮助GPU解决复杂的计算问题。这个架构促进了计算机行业从只使用CPU的“中央处理”向CPU与GPU并用的“协同发展”处理转变,在应用程序中充分利用了CPU和GPU各自的优点。
在CUDA架构下,GPU运算性能得到了飞快提升,特别是在深度学习领域,GPU每年的性能提升幅度达到120%,仅仅三年内,已经比原来增加了10倍。目前,CUDA的开发者已经超过50万人,比5年前增长了11倍。
黄仁勋认为,“GPU运算的时代已经来临。”基于这个判断,NVIDIA推出了一个基于GeForce GTX系列显卡的更新、基于Volta GPU的全新HGX GPU和ISAAC机器人平台。
NVIDIA将在GTX系列显卡上加上Max-Q的设计,全面整合GPU、软件与系统,能帮助GPU的性能实现最大化,并且降低功耗,在散热上也有稳定的表现。加入Max-Q设计后,GTX系列的厚度仅为18mm,5磅的重量仅为此前的一半。
在提升GPU运算能力的基础上,NVIDIA将通过软件迭代、优化深度学习工具与框架等,将GPU运算整合至每台电脑与云,然后从云端到终端扩展架构,并用人工智能本身去解决自动驾驶系统、机器人等挑战。
在2017年5月11日的加州圣何塞GPU技术大会上,NVIDIA就已经发布了Tesla V100。这个目前性能最强的GPU运算架构Volta采用台积电12nm FFN制程并整合210亿颗电晶体,在处理深度学习的性能上等同于250颗CPU。这个架构采用的是能够快速深度学习与推论的全新Tensor核心,耗费了NVIDIA大约30亿美元的研发费用,可以同时处理4*4矩阵。
但这只是NVIDIA的第一步,在Tesla V100的基础上,NVIDIA与微软合作推出了超大规模GPU加速器,将之命名为HGX,这个GPU加速器拥有8个Volta GPU芯片,所有的GPU之间可以相互沟通,HGX依据不同的CPU对GPU比例配置运算时间。
硬件层面重在收集深度学习的数据,而这些数据将会被汇聚在NVIDIA GPU云端平台,,人工智能的开发者可以随时随地从PC、资料中心或者云端取用这些数据,这个云端平台的测试版将在7月份开放。
在具体的落地应用上,黄仁勋认为机器人是人工智能目前最具落地应用前景的领域。在2017年的CES上,NVIDIA就推出了机器人BB8,这是一款自动驾驶汽车。此外,NVIDIA还宣布将和丰田合作研发自动驾驶汽车。
但是除了自动驾驶汽车,NVIDIA还希望自动驾驶的技术可以应用在各个需要自动化的领域,比如工厂的自动化,机器人将拥有比人类更高的工作效率,并且永不停歇;在电子商务领域,订单将由机器人完成分拣和配送;在医疗领域,机器人和医生机密合作,准确执行手术等任务。
为了推动自动驾驶技术的尽快应用,NVIDIA推出了ISAAC机器人平台,这个平台拥有一个名为Jetson TX2的人工智能电脑,这个电脑的运算能力相当于两台高性能PC,;在软件层面,Astro自动驾驶软件的技术迭代将会为机器人和无人机提供自动驾驶汽车的导航技术;最后,机器人将在虚拟实验室学习执行任务,知道完全胜任。