科技中心

向AI全速进发 NVIDIA的数据中心野望

11 9月 , 2019  

仿真的重要性获得了全球最大汽车制造商的认可。NVIDIA还宣布,丰田研究院高级研发公司(Toyota
Research Institute-Advanced Development ,简称TRI-AD)是DRIVE
Constellation的第一个客户。

图片 1

图形计算——NVIDIA TURING
RTX获得广泛支持,提供完整的渲染工作流;针对3D图形设计,NVIDIA
OMNIVERSE全球工作室协同开放平台被推出。同时,NVIDIA推出RTX
Server,并提供针对数据中心图形处理的服务器设计标准。

CUDA,Compute Unified Device
Architecture,是由NVIDIA所推出的一个类C开发环境,其主要目的是帮助开发者更好的使用GPU的并行计算能力,从而获得更好的软件运行效率。而本次推出的CUDA-X
AI则是多种面向不同类型工作负载的经过优化的运行库的集合,运行在CUDA之上。按照NVIDIA官网的信息,CUDA-X
AI包括加速深度学习算法的粗DNN、加速机器学习的cuML、加速数据科学中常用的pandas及类似框架的cuDF、用于执行高性能图表分析的cuGraph、用于加速基于模型的推理的TensorRT等一系列加速库的集合。CUDA-X
AI目前所包含的加速库数量为18个。不过相信随着GPU应用领域拓宽和新框架的不断出现,CUDA-X
AI的内容也会变得原来越多。目前,CUDA-X
AI所包含的内容也都已经针对最新推出的Tensor Core GPU进行了适配和优化。

Jetson
Nano具备472GFLOPS(每秒十亿次浮点运算)的计算性能,并且具有高能效,但耗电量仅为5瓦,能让开发人员轻松地将AI模型及框架集成到产品中。在软件层面,JetPack
SDK建立在CUDA-X的基础上,是一个完整的人工智能软件栈,包含用于深度学习、计算机视觉、计算机图形和多媒体处理的加速库,支持整个Jetson系列产品。JetPack包括最新版本的CUDA、cuDNN、TensorRT和完整版桌面Linux操作系统。

目前,CUDA-X
AI已经在包括Charter、Paypal、沃尔玛、微软等用户中实际部署,而包括浪潮、曙光、联想、HPE、戴尔EMC、思科、富士通等在内的7家系统设备供应商也推出了内置CUDA-X
AI的硬件产品。

这款基于云端的平台可使汽车在虚拟世界中驾驶数百英里,并历经从常规行驶到罕见危险情境的广泛驾驶场景,相比在真实环境中训练,该平台可帮助实现更高效率、更大成本收
益以及更安全的驾驶体验。

从总体上看,一个满配的RTX SERVER
POD是一个庞大的横向扩展服务器集群。这一集群由32台RTX
Server组成,而每台RTX Server则又分为两个4U节点。在节点设计上,RTX Server
node参考了刀片的设计思路,4U机框内可以安装10个RTX刀片,每个刀片内置两块RTX计算卡(GPU为Tesla
T10,还包括一个Intel酷睿i9八核心处理器,32GB系统内存以及256GB的NVMe
SSD,最大功耗450W。)。单个RTX Server接近300公斤,最大功耗10Kw。整个RTX
SERVER
POD内部采用Mellanox的Infiniband网络进行节点间互联,节点内部的GPU之间则使用NVLink互联。

图片 2

老黄眼中的PRADA,你get到了吗

来自DRIVE Constellation Vehicle的驾驶决策可反馈到DRIVE Constellation
Simulator中,从而实现位精确且时间精准的硬件在环测试。

CUDA-X AI生态系统

NVIDIA RTX光线追踪技术于SIGGRAPH
2018期间推出,现在这个技术获得了业界怎样的认可呢?在GTC
2019上,黄仁勋表示,NVIDIA
RTX为超过900万的活跃艺术家和设计师们带来了突破,Adobe、Autodesk、达索系统、Epic、Unity等多家公司的顶级设计和渲染工具将在2019年新版本中采用NVIDIA
RTX。

不忘在终端应用上发力的NVIDIA

自主机器人和无人驾驶——基于Jetson平台,NVIDIA发布了价格为99美金的Jetson
NANO,以及ISAAC Open SDK、无人驾驶的开放生态平台Drive AP2X、Drive AV等。

Jetson系列及其特性

CUDA-X
AI可被集成到TensorFlow、PyTorch和MXNet等深度学习框架中,以及AWS、Microsoft
Azure和Google Cloud等云平台中。

执着于造系统的半导体企业

另外,全新的T4服务器已经实现NVIDIA
NGC-Ready。作为NGC-Ready功能验证流程的一部分,所有经过测试的软件均可通过NVIDIA
NGC获取。NVIDIA
NGC是一个综合资源库,包括GPU加速软件、经预先训练的AI模型、数据分析模型训练、机器学习、深度学习、以及通过CUDA-X
AI加速的高性能计算。

RTX SERVER节点所采用的刀片设计

NVIDIA提供了最顶级的、面向人工智能的数据中心服务器芯片T4,而且还将通过AWS
G4新计算实例提供。此外,思科、Dell
EMC、富士通、HPE、浪潮、联想和曙光等厂商的服务器系统也将支持T4芯片。该芯片专为机器学习和深度学习打造,特别是T4芯片还瞄准了AI推理工作负载,这种工作负载是运行神经网络模型的计算密集型负载,需要用大量数据进行训练。

Jetson Nano及其开发套件,99刀不含税

DRIVE
Constellation于去年首次在GTC技术大会上推出,是一款由两个并排服务器组成的数据中心解决方案。
其中一台服务器DRIVE Constellation Simulator使用NVIDIA GPU运行DRIVE
Sim软件,用以生成在虚拟世界中车辆行驶的传感器结果。另外一台服务器DRIVE
Constellation Vehicle搭载了DRIVE AGX Pegasus
AI汽车计算机,用来处理仿真的传感器数据。

这种层层嵌套的系统有利于大规模快速部署并且易于升级和维护,主要面向云游戏、大规模视频渲染、云计算等应用场景。

在这张图中,NVIDIA对于自身产品和技术的思考被展露无遗。在黄仁勋的演讲中,我们可以从三个方面概括这次GTC大会的发布成果。

在过去,GPU用户在应对不同工作负载时需要单独安装不同的加速库,这显然相当麻烦;而CUDA-X
AI的出现则会大幅简化这些前期的安装及配置工作,让开发者能够更专注于代码。

图片 3

RTX SERVER POD是一种基于模块化设计的服务器堆栈,其设计思路相当有意思。

美国时间2019年3月18日,业界关注的NVIDIA GTC
2019正式拉开帷幕。在首日的Keynote中,NVIDIA创始人兼CEO黄仁勋用超过两个小时四十分钟的演讲为我们带了眼花缭乱的现场秀。在这将近三个小时的不插电分享中,NVIDIA展示了自己的业务布局和产品更新,把重点放在了一系列新设备和新服务上,旨在巩固自身GPU芯片在计算机图形、数据科学和人工智能等领域的领先地位。

由NVIDIA举办的GTC
2019今日在美国加州圣何塞正式开幕。与之前的几届GTC一样,今年,与AI和HPC相关的数据中心业务同样是NVIDIA创始人兼CEO黄仁勋在主题演讲中所关注的重点领域。显然,相对于日渐萎靡的消费级游戏市场,数据中心业务正在成为NVIDIA关注的重点。


相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图