Pure Storage正通过其FlashBlade挤入基于AI的存储领域,这个用例是横向扩展非结构化阵列的自然进程。
该全闪存先锋本周联手高性能GPU专家Nvidia推出Pure Storage AIRI,这一种预先配置的堆栈,用于加速大规模数据密集型分析。AIRI代表AI-ready基础设施,该产品整合了4个Nvidia DGX-1深度学习超级计算机与单个15刀片Pure Storage FlashBlade阵列。由Arista Network的两个远程直接内存接入100千兆以太网交换机提供连接性。
在这个产品迭代中,Pure使用了15个中等规模17 TB FlashBlade NAND刀片。Pure Storage声称,半机架的AIRI计算和存储相当于约15个标准数据中心机架。
DGX-1配备Nvidia Tesla V100 CPU,可提供4千万亿次额定性能。Pure Storage FlashBlade的吞吐量额定为150万IOPS。
Nvidia Cloud Deep Learning Stack(云计算深度学习堆栈)嵌入集装箱版本的Apache MXNet、Caffe、Chainer、Python/Theano、PyTorch和TensorFlow AI框架。Pure为AIRI Scaling Toolkit软件开发了代码,该软件支持跨多个DGX节点同时快速测试和培训分析的模型。
Pure Storage销售副总裁Matt Burr称:“我们的AI-ready基础设施的想法来自我们的客户。它旨在为想要部署AI但不确定如何购买基础设施的企业提供入门级产品。”
目前其他存储供应商已经整合Nvidia技术到AI相关硬件中。例如惠普企业HPE Apollo 6500 Gen10和IBM AC922 Power9系统也可利用Nvidia GPU的优势。同时,高性能计算供应商DataDirect Networks本周推出DDN ExaScaler DGX,正是基于其ES14K全闪存阵列与Nvidia DGX-1深度学习系统的整合。
Pure Storage FlashBlade横向扩展NAS阵列利用位于该存储刀片上的NAND闪存模块。FlashBlade支持Purity操作系统的文件和对象存储。刀片提供8TB、17TB和52TB容量,AIRI预配置了17TB模块。
存储可能会导致GPU性能瓶颈
Burr称,在听说企业对Nvidia处理器因基于磁盘的存储而闲置的困扰后,Pure公司主动测试了一款融合AI存储产品。
Burr称:“我们首先自己购买了一些DGX来开发测试工具包和测试配置,以提供线性可扩展性–从单个DGX到多个DGX单元。当我们询问Nvidia这是否有价值时,他们给我们的答案是肯定的。”
Pure公司的客户Element AI在先前的存储无法匹配Nvidia DGX节点的速度时,他们转移到Pure Storage FlashBlade。
Element AI公司首席架构师Jeremy Barnes称:“我们当时已经选定了一个低端存储系统,并打算建立分布式存储架构。但我们发现,我们的GPU需要快速增长以扩展存储能力,而且当时发展到因为这种瓶颈让我们无法有效利用GPU的地步。”
“Pure Storage FlashBlade开箱即可提供10倍更快的速度,无需特别的调试。它让我们能够将GPU的利用率从20%提高到接近100%。”
Burr称目前可从Pure与Nvidia联合经销商处获取Pure Storage AIRI的定价。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
作者
翻译
相关推荐
-
Pure Storage推出ObjectEngine备份设备
闪存存储先驱Pure Storage公司开始进入云备份领域,让客户可对亚马逊云计算服务(AWS)上的数据进行重 […]
-
2019年IT重点:大数据分析存储架构
行业专家预测,为大数据分析、人工智能、机器学习和物联网改进存储架构将成为2019年关注的重点领域。 近日Tec […]
-
Microsoft Azure存储团队想要更简单的闪存设备
通过参与开放计算项目(Open Compute Project),这个云计算巨头正在联手其他供应商打造“定制S […]
-
NetApp闪存产品深入云、边缘和物联网
新的NetApp闪存存储开始瞄准Docker环境和对象存储,而原本这些技术主要依靠旋转磁盘。 在NetApp […]