InfiniBand 连接现在和未来

日期: 2008-04-16 作者:yuki 来源:TechTarget中国

  InfiniBand是致力于服务器端的高性能互联技术,它的使命是:使处理器级的带宽,从处理器到系统I/O、到存储网络,穿越整个数据中心,形成一张统一的、包括服务器互连、服务器与存储互连、存储网络在内的神经网络。


  InfiniBand技术是一种开放标准的高带宽、高速网络互联技术。目前,它的发展速度非常快,而且越来越多的大厂商正在加入或者重返到它的阵营中来,包括Cisco、IBM、HP、Sun、NEC、Intel等。可以说,InfiniBand已经成为目前主流的高性能计算机互连技术之一。而且,目前基于InfiniBand技术的网络卡的单端口带宽最大可达到20Gbps,基于InfiniBand的交换机的单端口带宽最大可达60Gbps,单交换机芯片可以支持达480Gbps的带宽,为目前和未来对于网络带宽要求非常苛刻的应用提供解决方案。


  InfiniBand体系结构


  InfiniBand技术通过一种交换式通信组织(Switched Communications Fabric)提供了较局部总线技术更高的性能,它通过硬件提供了可靠的传输层级的点到点连接,并在线路上支持消息传递和内存映像技术。


  InfiniBand技术通过连接HCA(Host Channel Adapters)、TCA(Target Channel Adapters)、交换机以及路由器来工作,其体系结构如下图所示。



  目前,集群计算、存储区域网(SAN)、网格、内部处理器通信(IPC)等高端领域对高带宽、高扩展性、高QoS以及高RAS(Reliability、Availability and Serviceability)等有迫切需求,InfiniBand技术可以为实现这些高端需求提供可靠的保障。


  在I/O技术层面,InfiniBand 具有两个非常关键的特性:一是物理层设备低功耗,二是“箱外带宽”(Bandwidth Out of the Box)。 一个InfiniBand结构的铜介质物理层设备(PHY)每一个端口只需要0.25瓦,而一个千兆以太网物理层设备每一个端口需要2瓦的功耗。这个量级的差距决定了InfiniBand更适合用在互联网数据中心几十米范围内的服务器和存储系统的连接。而且高功耗的以太网技术不能以基于一种基本传输速率的倍数形式用于芯片级的系统集成。而将多芯片系统集成到单一芯片的InfiniBand系统必将从根本上降低整个I/O系统的开销,尤其是在规模可观的InfiniBand系统网络中。InfiniBand的箱外带宽特性可为集群、通信、存储等提供单一的互连支持。


  目前,InfiniBand支持三种连接(1x,4x,12x),是基本传输速率2.5Gb/s的倍数,即支持速率是2.5Gb/s、10Gb/s和30Gb/s。InfiniBand 物理层基于IEEE 802.3.z标准,10G以太网和FC也是基于这一标准的。InfiniBand传输提供了一套比TCP协议更丰富的服务协议,它提供了连接和非连接操作。


  InfiniBand立在潮头


  去年,很多分析家指出,InfiniBand是作为企业数据中心等应用中除以太网以外的第二选择出现的。如今, InfiniBand成本急速下降且在集群、刀片服务器领域取得大规模拓展,这第二选择的发展速度超乎想象。


  去年底,InfiniBand交换机厂商Topspin与Dell、HP、IBM和Sun签订协议建立了合作伙伴关系,业界普遍重新恢复了对InfiniBand的支持。而且从去年开始,越来越多的实验室和大学都在评估InfiniBand,他们表示,InfiniBand交换机能够支持诸如光纤通道之类的其他协议的事实是非常吸引人的,因为它可以轻松地把集群连入存储和网络系统之中。


  更值得关注的是,IBM和NEC Solutions(北美)的刀片式服务器在去年嵌入了Topspin的InfiniBand设备。IBM在它的BladeCenter上提供InfiniBand可选件,NEC在它的Itanium 2刀片服务器装载Topspin的 InfiniBand PCI-X总线的主机适配卡。


  而今年4月,Cisco宣布收购 Topspin后, 成为了 InfiniBand 产品的最大支持者。


Insight 64 的分析师指出:“经过 4 年的发展历程, InfiniBand 技术已经克服了如软件支持、性能检验和价格方面的缺陷,获得了市场的认可。”


  Mellanox让InfiniBand大众化


  在国内,目前杀进来了一家专营InfiniBand技术和产品的公司—Mellanox。这家公司成立于1999年,是目前基于InfiniBand技术的芯片、网卡和交换机的主要提供商之一。记者在最近的一次对其CEO Eyal Waldman的采访中了解到,Mellanox为通信、存储和计算机集群领域提供互连解决方案,致力于研发、生产基于 InfiniBand 的产品与方案。


  据Waldman介绍,采用基于InfiniBand技术的整体解决方案,可以用一套网络设备来完成所有的功能,也就是用于计算和存储的网络都采用InfiniBand,从而可以大大降低整体系统的TCO,同时在性能上也可以达到很大的提升。另外,在与FC存储方案的性能对照中,基于InfiniBand的存储方案实测性能可以达到FC方案的4倍。与10G以太网卡相比较,InfiniBand产品也具有明显的优势,在Mellanox的努力下,其价格是目前10G以太网卡的十分之一,但是InfiniBand HCA卡的功耗却是10G以太网卡的七分之一,同时带宽更大,延时更低,面积更小,对于CPU的占用率更低,基于InfiniBand平台的软件更加成熟。


  Mellanox认为,随着双核处理器的出现、PCI-Express总线的发展、超级计算机的规模越来越大以及数据库集群的发展、金融分析的精确度的增加,制造业、石油、气象、生物等仿真技术的发展等,使得高带宽、低延时、高性能、低价格的网络互联方案变得日益重要,而这一切都在推动InfiniBand快速成为市场主流。目前,国内一些主流的高性能集群计算机提供商都与Mellanox达成了合作,包括曙光、浪潮、联想等。而在我国台湾,主流的主板生产厂商也都与Mellanox合作,在其主板产品中加入Mellanox的技术和芯片。


  Mellanox从推出第一代InfiniBand产品以来,到目前已发展到了第三代的InfiniHost芯片(HCA卡控制器)和InfiniScale芯片(交换机控制器),目前的主流产品是InfiniHost芯片、InfiniHost III芯片和InfiniScale III芯片,还有上述芯片的HCA(Host Channel Adapter)卡和交换机产品。Mellanox的产品可支持新一代的PCI-Express规范,并将要推出基于DDR (双倍数据率)InfiniBand技术的HCA卡。


  Waldman指出,从InfiniBand技术的发展前景来看,到2006年,基于QDR(四位数据率) InfiniBand技术的产品将会推向市场,那时InfiniBand网卡的单端口带宽将达到40Gbps、80Gbps或120Gbps,相信InfiniBand技术将会变得越来越普及。



 

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

作者

yuki
yuki

相关推荐