联系我们

      :北京海淀区上奥世纪A座501

      :18516861079

      :010-82905660

      :13691591858

     :sales@ditian-tech.com

当前位置:新闻资讯 > 业界新闻 >
Infiniband 价值
作者:网站管理员   发布时间:2015-01-11 21:35:26   

    InfiniBand架构是一种支持多并发链接的“转换线缆”技术,在这种技术中,每种链接都可以达到

2.5 Gbps的运行速度。这种架构在一个链接的时候速度是500 MB/秒,四个链接的时候速度是2GB/

秒,12个链接的时候速度可以达到6 GB /秒。

  InfiniBand技术不是用于一般网络连接的,它的主要设计目的是针对服务器端的连接问题的。

因此,InfiniBand技术将会被应用于服务器与服务器(比如复制,分布式工作等),服务器和存储

设备(比如SAN和直接存储附件)以及服务器和网络之间(比如LAN, WANs和the Internet)的通

信。

我们为什么需要InfiniBand?


   采用Intel架构的处理器的输入/输出性能会受到PCI或者PCI-X总线的限制。总线的吞吐能力是由

线时钟决定的(比如33.3MHz,66.6MHz 以及133.3MHz)和总线的宽度(比如32位或者64位)。

在最通常的配置中,PCI总线速度被限制在500 MB /秒,而PCI-X总线速度被限制在1 GB/秒。这种

速度上的限制制约了服务器和存储设备、网络节点以及其他服务器通讯的能力。在InfiniBand的技

术构想中,InfiniBand直接集成到系统板内,并且直接和CPU以及内存子系统互动。但是,在短期

内,InfiniBand支持将由PCI和PCI-X适配器完成;这样,InfiniBand在最初将会受到总线的制约。在

2002年年底,InfiniBand技术将会完全被整合在Intel服务器供应商以及Sun生产的服务器中(80%的

可能性)。



信号发送速率

  SDR串行连接的信号发送速率是2.5 Gbit/s(每连接每方向)。

  SDR、DDR和QDR,连接使用8B/10B编码,即每发出10Bits则携带8Bits的数据,使有效数据

传输速率为原速率4/5。因此,单倍、双倍及四倍数据传输速率为每秒传输2、4及8 Gbit有效数据

(相对地)。FDR和EDR则使用64B/66B编码。

延迟
  SDR交换模块的延迟为200ns,DDR为140ns而QDR为100ns。

  端到端延迟范围:1.07微秒(Mellanox ConnectX QDR HCAs)、1.29微秒(Qlogic InfiniPath

HCAs)到2.6微秒(Mellanox InfiniHost DDR III HCAs)

  Infiniband提供低CPU占用下的RDMA特性(远程直接内存访问),RDMA操作延迟低于1微秒

(Mellanox ConnectX HCAs)

拓扑结构

  Infiniband使用交换结构拓扑,与分层式交换结构网络(以太网等 )相反。大部分网络拓扑结

构是Fat-tree(Clos),Mesh或3D-Torus。正如在大多数大型计算机的通信模型中,所有传输都是开

始或终结于一个信道适配器。每个处理单元包含一个HCA以及每个外置设备包含一个TCA。这些适

配器均可进行安全或服务质量信息交换。

信息

  Infiniband在传输数据时将数据打包(最大为4kB)以形成一个信息。一个信息可以包括:

  1. RDMA请求

  2. 信道收发

  3. 基本事务的操作(可逆转)

  4. 多路广播传输

  5. 细粒度操作

  Infiniband现在主要应用与高性能计算平台当中,虽然协议出现得比较早,但由于厂商的支持问

题,应用范围并不太广泛。