NetApp推出新的平台进军AI存储市场,该平台结合OnTap全闪存FAS阵列与Nvidia超级计算机。
NetApp AI On Tap融合基础设施是经过验证的架构,其中结合了NetApp的FAS A800全闪存NVMe阵列(用于NFS存储)以及集成的Nvidia DGX-1服务器和图形处理单元(GPU)。NetApp称,这个参考设计验证的是4台DGX服务器与1台FAS A800,但客户可按照1:1的比例开始,并根据需要进行无终端扩展。
NetApp的Data OnTap系统组高级副总裁Octavian Tanase 称:“这类架构的受众是数据科学家。我们希望这对他们变得简单,我们想要消除复杂性,为他们提供一个可整合和部署的解决方案,从边缘到核心再到云端。我们相信他们可以很有信心地实现这一点。”
Nvidia公司副总裁兼总经理Jim McHugh表示,该产品旨在帮助企业跨核心数据中心、边缘计算和云环境实现数据分析。他表示Nvidia DGX处理器是基于Nvidia Cuda GPU—开发用于通用过程计算。
McHugh称:“每个行业都在想‘我们需要更好的洞察力’,但更好的洞察力意味着新的计算障碍。数据确实是新的源代码,当你不再花时间编写所有功能以及通过QA时,则你在让数据驱动解决方案,而这需要大量并行计算。”
这个NetApp-Nvidia联合产品反映了人工智能和机器学习的激增,这需要可扩展存储来吸收大量数据以及强大的并行处理来分析它。
今年4月,NetApp竞争对手Pure Storage联手Nvidia推出具有DGX-1 GPU和Pure的横向扩展NAS FlashBlade阵列的AI存储平台。
NetApp AI OnTap的容量和扩展性
NetApp FAS A800系统支持30 TB NVMe SSD,并具有多流写入功能,可在2U机架中扩展至2 PB原始容量。该系统可从两节点364 TB扩展到24节点和74 PB。NetApp称,24节点FAS A800集群可提供高达每秒300千兆位吞吐量以及1140万IOPS。它支持100千兆以太网和32Gbps光纤通道网络连接。
这两家供应商表示,NetApp AI存储平台经过测试可最大限度降低部署风险。NetApp AI OnTap集群可通过额外的网络交换机和存储控制器对扩展到多个机架。该产品整合了NetApp Data Fabric技术,可在边缘、核心和云环境之间转移AI数据。
NetApp AI OnTap是基于OnTap 9.4,可处理企业数据管理、保护和复制。每个DGX服务器都包含8个Nvidia Tesla V100 GPU,采用混合立体式网络拓扑结构,利用Nvidia的NVLink网络传输作为高带宽低延迟结构。这种设计旨在消除基于PCIe的互连发生的流量瓶颈。
DGX-1服务器支持通过支持远程直接内存访问的结构进行多模式群集。
企业难以扩展、部署AI项目
NetApp技术合作伙伴World Wide Technologies(WWT)公司全球存储业务负责人Scott Webb称,AI存储是企业客户的热门话题。
Webb表示:“在我们的客户研讨会上,AI现在是主要用例。客户正在试图弄清楚背后的复杂性。NetApp闪存后端的DGX和AI是成功的组合。这不仅仅在性能方面,而且可让客户从小处开始,并随着用例增长来扩展。”
系统集成商Integrated Archive Systems公司工程副总裁John Woodall称,NetApp Data Fabric是AI存储部署的关键推动者。
Woodall说:“在人工智能领域速度和数据流非常重要,但这是个竟相提高的游戏。通过Data Fabric,我认为NetApp能够让客户更好地控制在哪里部署其资产。”
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国