Pure Storage联手Nvidia推出“AIRI”基础设施

日期: 2018-04-10 作者:Garry Kranz翻译:邹铮 来源:TechTarget中国 英文

Pure Storage正通过其FlashBlade挤入基于AI的存储领域,这个用例是横向扩展非结构化阵列的自然进程。

该全闪存先锋本周联手高性能GPU专家Nvidia推出Pure Storage AIRI,这一种预先配置的堆栈,用于加速大规模数据密集型分析。AIRI代表AI-ready基础设施,该产品整合了4个Nvidia DGX-1深度学习超级计算机与单个15刀片Pure Storage FlashBlade阵列。由Arista Network的两个远程直接内存接入100千兆以太网交换机提供连接性。

在这个产品迭代中,Pure使用了15个中等规模17 TB FlashBlade NAND刀片。Pure Storage声称,半机架的AIRI计算和存储相当于约15个标准数据中心机架。

DGX-1配备Nvidia Tesla V100 CPU,可提供4千万亿次额定性能。Pure Storage FlashBlade的吞吐量额定为150万IOPS。

Nvidia Cloud Deep Learning Stack(云计算深度学习堆栈)嵌入集装箱版本的Apache MXNet、Caffe、Chainer、Python/Theano、PyTorch和TensorFlow AI框架。Pure为AIRI Scaling Toolkit软件开发了代码,该软件支持跨多个DGX节点同时快速测试和培训分析的模型。

Pure Storage销售副总裁Matt Burr称:“我们的AI-ready基础设施的想法来自我们的客户。它旨在为想要部署AI但不确定如何购买基础设施的企业提供入门级产品。”

目前其他存储供应商已经整合Nvidia技术到AI相关硬件中。例如惠普企业HPE Apollo 6500 Gen10和IBM AC922 Power9系统也可利用Nvidia GPU的优势。同时,高性能计算供应商DataDirect Networks本周推出DDN ExaScaler DGX,正是基于其ES14K全闪存阵列与Nvidia DGX-1深度学习系统的整合。

Pure Storage FlashBlade横向扩展NAS阵列利用位于该存储刀片上的NAND闪存模块。FlashBlade支持Purity操作系统的文件和对象存储。刀片提供8TB、17TB和52TB容量,AIRI预配置了17TB模块。

存储可能会导致GPU性能瓶颈

Burr称,在听说企业对Nvidia处理器因基于磁盘的存储而闲置的困扰后,Pure公司主动测试了一款融合AI存储产品。

Burr称:“我们首先自己购买了一些DGX来开发测试工具包和测试配置,以提供线性可扩展性–从单个DGX到多个DGX单元。当我们询问Nvidia这是否有价值时,他们给我们的答案是肯定的。”

Pure公司的客户Element AI在先前的存储无法匹配Nvidia DGX节点的速度时,他们转移到Pure Storage FlashBlade。

Element AI公司首席架构师Jeremy Barnes称:“我们当时已经选定了一个低端存储系统,并打算建立分布式存储架构。但我们发现,我们的GPU需要快速增长以扩展存储能力,而且当时发展到因为这种瓶颈让我们无法有效利用GPU的地步。”

“Pure Storage FlashBlade开箱即可提供10倍更快的速度,无需特别的调试。它让我们能够将GPU的利用率从20%提高到接近100%。”

Burr称目前可从Pure与Nvidia联合经销商处获取Pure Storage AIRI的定价。

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

翻译

邹铮
邹铮

相关推荐