长期以来,伴随着在更大的带宽和更强的处理能力方面的竞争日趋激烈,各种I/O标准相继登场,现在,由218个成员组成的InfiniBand Trade Association(InfiniBand贸易联盟)提出了一种崭新的技术――InfiniBand。Intel等厂商也已开发出了相应的套件,如 InfiniBand Host Channel Adapter(主通道适配器)和InfiniBand交换机等。
InfiniBand是一种交换结构I/O技术,其设计思路是通过一套中心机构(中心InfiniBand交换机)在远程存贮器、网络以及服务器等设备之间建立一个单一的连接链路,并由中心InfiniBand交换机来指挥流量,它的结构设计得非常紧密,大大提高了系统的性能、可靠性和有效性,能缓解各硬件设备之间的数据流量拥塞。而这是许多共享总线式技术没有解决好的问题,例如这是基于PCI的机器最头疼的问题,甚至最新的PCI-X也存在这个问题,因为在共享总线环境中,设备之间的连接都必须通过指定的端口建立单独的链路。
InfiniBand的设计主要是围绕着点对点以及交换结构I/O技术,这样,从简单廉价的I/O设备到复杂的主机设备都能被堆叠的交换设备连接起来。如果带宽、距离等条件适宜,InfiniBand主要支持两种环境:模块对模块的计算机系统(支持I/O 模块附加插槽);在数据中心环境中的机箱对机箱的互连系统、外部存储系统和外部LAN/WAN访问设备。InfiniBand支持的带宽比现在主流的I/O载体(如SCSI、Fibre Channel、Ethernet)还要高,此外,由于使用IPv6的报头,InfiniBand还支持与传统Internet/Intranet设施的有效连接。用InfiniBand技术替代总线结构所带来的最重要的变化就是建立了一个灵活、高效的数据中心,省去了服务器复杂的I/O部分。
另外,使用InfiniBand技术的服务器可以无缝地连接到现存的Ethernet LAN和基于通道的光纤存储网络中,而通常现存的服务器是通过每个专用的I/O子系统与LAN、SAN(存储区域网络)直接连接的。这种专用子系统是由冗余的PCI总线、网卡等组成的。在下一代的InfiniBand服务器与SAN/LAN设施中,一个新“层”将会插进来,这一层是由智能交换机组成,并与服务器、网络模块(路由器)和存储模块互连。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
作者
相关推荐
-
200Gb/s HDR InfiniBand发布 创性能和可扩展新高
2016年11月9日,数据中心端到端互连方案提供商Mellanox发布全球首个 200Gb/s 数据中心网络互连解决方案。
-
迁移到企业级闪存阵列 你都重新思考了哪些
向企业级闪存进行迁移?这对重新思考多年以前我们在使用慢速磁盘系统时对于存储网络做出的种种决策也许是一个很好的时机。
-
Emulex与IBTA为数据中心推出横向RoCEv2
Emulex联合InfiniBand行业协会(InfiniBand Trade Association,IBTA),推出了增强RoCE (RDMA over Converged Ethernet)规范,该规范将被称为“RoCEv2”。
-
虚拟机监控程序使存储陷入I/O搅拌机效应
DeepStorage.net的首席研究员Howard Marks,在最近的一次虚拟化研讨会上解释了在虚拟环境中监控程序是如何影响存储I/O的。