前两大主流网络互连技术,以太网于1980年投入商业使用并于1983年首次标准化为 IEEE 802.3,此后经过改进可以支持更高速率、更多节点和更长链路距离,保留了很好的向后兼容性,取代大多数其他有线LAN技术,应用广泛,400/800Gbps已经部署,1.6Tbps正在开发。为了应对 PCI 总线限制 I/O 性能进而导致系统发展问题,InfiniBand 由微软、Intel、IBM 等 IT 巨头组成的 IBTA 提出,目的取代 PCI、以太网等成为统一互连方案,采用不同于以太网的拓扑结构,主要用于计算机集群互连和存储设备连接等,2012 年起随着高性能计算发展,市场份额快速提升,根据 Top500,2015 年占比首次过半,超越以太网,目前已成为大规模 GPU 互连首选技术。Mellanox(2019 年英伟达收购)领导InfiniBand 市场,2016 年引入 SHARP 技术,在交换芯片中集成计算引擎单元,实现在网计算,降低聚合通信延迟,减少网络拥塞并提高机群系统可扩展性。InfiniBand 主要特点之一是利用远程直接内存访问(RDMA)以减少 CPU 资源负荷,实现高吞吐量传输数据和低延迟。RDMA 区别于传统 TCP/IP,可以在两台服务器主系统内存之间提供直接访问,不涉及操作系统、高速缓存或存储,是降低智算集群中多机多卡间端到端通信时延的关键技术。