2016年11月9日,数据中心端到端互连方案提供商Mellanox发布全球首个 200Gb/s 数据中心网络互连解决方案。Mellanox ConnectX-6 适配器、Quantum交换机、 LinkX线缆和收发器一同构成了面向新一代高性能计算、机器学习、大数据、云、web 2.0 和存储平台的完整 200Gb/s HDR InfiniBand 网络互连基础设施。
十年前,Intersect360 Research曾对HPC(高性能计算)市场开展商业调查,当时InfiniBand 技术刚刚成为高性能计算集群的互连方案选择,近些年,随着数据分析、机器学习等高数据吞吐的应用迅速发展,对高带宽、低延迟互连的需求也扩大到了更广阔的市场。InfiniBand 已然壮大成为HPC系统里高性能存储互连方案的首选。而在规划新一代大规模HPC系统乃至规划未来的百亿亿次性能的系统时,基于开放标准的网络技术将成为重要考量。
ConnectX-6 适配器包含200Gb/s单/双端口两种规格,与上一代产品相比数据速率翻番。它还拥有Mellanox 的VPI技术(Virtual Protocol Interconnect),可以同时支持InfiniBand 和以太网标准协议,并能够兼容如今主流的 CPU 平台——包括x86、GPU、POWER、ARM、FPGA 等等。ConnectX-6网卡拥有高达每秒传输 2 亿条消息的顶尖性能、0.6usec(微秒)的超低延迟,并且支持 MPI-Direct、RDMA、GPU-Direct、SR-IOV、数据加密等网络内计算引擎(in-network computing)以及创新的 Multi-Host 技术,ConnectX-6能构建出业界最高效的计算和存储平台。
Mellanox 200Gb/s HDR InfiniBand Quantum 交换机是全球最快的交换机,支持 40 端口的 200Gb/s InfiniBand 或 80 端口的 100Gb/s InfiniBand 连接,可实现 16Tb/s 的总交换处理能力,且延迟极低,仅有 90ns(纳秒)。Mellanox Quantum 交换机拥有市场上可扩展性最强的交换芯片,提升了对网络内计算(in-network computing)技术的支持,并经过优化且灵活的路由引擎。Mellanox Quantum交换芯片将成为多种交换机系统的基础,例如用于架顶解决方案的 40 端口 200Gb/s 或 80 端口 100Gb/s,以及 800 端口 200Gb/s 和 1600 端口 100Gb/s 模块化交换机系统。
据悉,Mellanox 200Gb/s HDR 解决方案将在2017年大规模出货。为了打造完整的端到端 200Gb/s InfiniBand 基础架构,Mellanox还将发布最新的LinkX 解决方案,为用户提供一系列不同长度的 200Gb/s 铜缆及硅光线缆。
我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。
我原创,你原创,我们的内容世界才会更加精彩!
【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】
微信公众号
TechTarget
官方微博
TechTarget中国
相关推荐
-
DDN公司发布Lustre多级安全方案和IME加速器
DataDirect Networks在年度产品更新中推出了一款新的Lustre多级安全设备,并升级了其SAN和NAS平台。
-
第四届大学生RDMA编程挑战赛圆满落幕 国防科大与华中科大摘得桂冠
10月26日,在2016 HPC Advisory Council (国际高性能计算咨询委员会)中国研讨会上, HPC Advisory Council正式揭晓第四届大学生RDMA编程挑战赛 (The 4th Student RDMA Programming Competition) 的比赛结果来自国防科技大学和华中科技大学的两支队伍凭借出色的表现摘取一等奖。
-
XSKY开源InfiniBand RDMA互联支持 加速Ceph能效再创新高
近日,国内软件定义存储企业XSKY向Ceph社区提交了IB RDMA的协议栈代码,将历时近1年时间研发的基于Ceph的IB RDMA互联支持进行开源。
-
瞄向超算上升市场 英特尔推出新一代至强融核处理器
2016年7月20日,英特尔公司在北京召开主题为“至强芯融合 智悉数据之路”的英特尔至强融核应用创新论坛,携手10余家生态系统伙伴联合分享基于全新一代英特尔至强融核处理器的高性能计算平台的优秀解决方案和应用实例。