
计 算 机 总 线 发 展 新 趋 势.doc
4页计 算 机 总 线 发 展 新 趋 势 The New Tendency of Computer Buses 杨 刚 龙海燕 杨 晞 摘 要:本文对计算机系统总线技术的发展作了简要概述,着重对面向系统内部通信的新型高速并行总线HyperTransport和面向系统间通信的新型高速串行总线InfiniBand进行阐述,同时还比较它们与其它新型总线RapidIO、3GIO和StarFabric以及传统的PCI基总线之间的对立统一关系关键词:计算机总线,HyperTransport,InfiniBand,PCIAbstract:This paper made a outline to the development of computer system buses, and put great emphasis on the new high speed parallel bus ,HyperTransport, which faces to system inner communication ;and the new high speed serial bus ,InfiniBand, which faces to system external communication,at the same time comparing them with other new buses,such as RapidIO、3GIO、StarFabric and traditional PCI buses.Keywords: computer bus, HyperTransport,InfiniBand,PCI 引言: 计算机系统总线正在发生变化,虽然PCI 以及PCIX和COMPACTPCI总线还在大多数应用场合占据优势,但正在出现的大量高速串行和并行总线开始崭露头角,基于包的总线技术标准如:HyperTransport、InfiniBand、RapidIO、3GIO和StarFabric将继续融入新型计算机系统中。
HyperTransport:HyperTransport是AMD和API Networks公司合作研发并于2001公布,用于互连母板上的集成芯片,是一种高速、低等待时间、点到点可扩充的新型并行总线结构它提供了PCI总线中广泛采用的相同类型的“树”结构和相同的命令规则,从而保证了为PCI总线研发的大量软件的后向兼容性,包括支持存储器读/写操作的能力实际上HyperTransport技术是PCI技术的扩展,作为PCI基产品后向兼容的唯一标准, HyperTransport看来应能适应未来发展的需求与引脚数相同的PCI总线相比,HyperTransport具有更高的吞吐量在传统的PCI解决方案中,各部件共享连接资源,HyperTransport则不同,它的每个外设具有自己的I/O连接,从而减少了数据瓶颈,提高了总线传输性能此外,它能广泛的选择总线的宽度和速度,以满足当前和未来众多设备在功率、空间和成本方面的需求这些设备包括工作站、服务器、Internet路由器、光交换机、企业网,中心局设备、蜂窝基站、以及其他目前使用PCI的广大设备标准HyperTransport技术的总线宽度有2位、4位、8位、16位和32位的选择,从而满足不同的应用需求。
多个组件可以用“菊花链”结构相连接,并能将数据路由至多达三十一个附加设备,在8位总线上速率为4GB/S,32位总线上可达16GB/SHyperTransport具有统一的积木块结构,从而可实现从单一功能的I/O块直到各种复杂的高速系统这一结构还具有很强的灵活性,既能提供点到点的连接,又能提供可扩充的网络拓扑结构基于这种体系结构的系统可用交换机进行扩充,能处理多个I/O数据流,管理附加设备的互连,从而支持多级、高度复杂的系统例如4端口HyperTransport交换机可以将多个下游端口中的数据汇集到单一的高速上行线路和进行端口到端口的路由连接对总线中各种命令、地址、数据(CAD),以及时钟和其他控制信号,HyperTransport采用了专门的低压差分信号(LVDs),其差分阻抗为60Ω,从而可以方便地应用到多种嵌入式系统中但由于差分信号要求2引脚/位因此HyperTransport总线中的引脚数会有所增加另外HyperTransport器件中还应包括电源、接地、电源正常(PWROK)、复位引脚和停止引脚(LDT_STOP),其中停止引脚的功能是使器件进入“睡眠”状态,这对各种强调低功耗的嵌入式应用而言极为有利。
如PDA、电池供电的通信系统、数字娱乐设备等等HyperTransport器件的互连可以是对称的,也可以是非对称的非对称总线的灵活带宽能同时支持上行和下行不同的带宽要求,而不需专用的I/O驱动器,因为协议层已保证数据在整个交换结构内的合理流动在通电时,每个器件发送一个表明接收器宽度的位图形,然后器件中的检测逻辑确定发送器的最大安全宽度,并调整输入通道和输出通道,从而无需任何软件设置就能够保证器件按最佳配置进行通信HyperTransport技术体系结构尚在标准审查中,目前有一百多家公司支持此技术然而它正受到来自InfiniBand、RapidIO、3GIO和StarFabric的挑战事实上RapidIO一直与 HyperTransport竞争,虽然RapidIO并不是为PC领域设计的例如最新的HyperTransport协议兼容RapidIO的多主操作,然而RapidIO处理得更简便,它所采用的标准低压差分信号(LVDs)技术和基于包的并行操作,使得各种标准库可以方便的融入到RapidIO设计中,这一点在进行嵌入式SOC设计时特别有用,因为这时候需要将多个IP核捆绑到同一芯片中此外RapidIO支持非块状开关结构为各种场合如通信应用提供了必须的高性能。
StarFabric看来也会对各种新的PCI平台以及HyperTransport构成威胁,不过StarFabric端点结构的本质特点决定了它不会一蹴而就,要想占领市场还有漫长道路要走因为目前采用PCI桥可以较容易的实现相同的功能,从而在很大程度上扩展了PCI 和COMPACTPCI总线的应用场合,并以延缓其生存期不过相对不同的需求而言,StarFabric的精致设计使之更适合于那些端点数不多的应用场合现在已经有了一些从标准总线如PCI到StarFabric的桥接器件,问题的关键是支持StarFabric的器件和软件是否足够多,这尚需要StarFabric工作联盟参与者的不懈努力3GIO,过去以来一直依靠PCISIG联盟的资助,现在开始崭露头角,不过其标准仍在变化中,真正的产品尚未出现,由于INTEL公司对它感兴趣的缘故,因而对之应予以关注它的低延迟、高服务质量(QOS)和高速串行总线的特点有可能确保它的成功目前3GIO正在与一些业已存在的标准总线谈判,包括HyperTransport 、StarFabric、 RapidIO等等,它们之间究竟是达成互相支持对方接口的共存协议,还是翻脸相争,相信很快就会有结果了。
上述HyperTransport 、StarFabric、 RapidIO、3GIO实际上是面向“机箱内”的通信技术,即处理器、存储器、I/O和通信信道之间的通信,与此相对的InfiniBand则面向系统间的通讯见下表) 总线名称 应用 速率 媒介 类型 PCIXAdapter cards 1Gbyte/s Wire Parallel InfiniBand Storage2.5Gbits/s/ link OpticalWire fabricSerial switch HyperTransport Storage1Gbit/s/port Wire Parallel InfiniBand:InfiniBand是一种高性能、通道基的I/O协议,可以用来提高服务器和其它网络基础设备(包括存储系统和网络外设)的性能、可扩充性和可靠性在IBTA(InfiniBand行业学会)制定的标准指导下,InfiniBand I/O协议提供了一个通用的分组基互连结构,具有更优越的性能、更低的成本、更高的效率第一代InfiniBand设备间传输速率为2.5GB/S——可以提供500MBps、2GBps和6GBps的带宽,未来可达到10GB/S 或30GB/S。
这是当前网络无法比拟的这些点到点的连接技术,将带来更快速、少堵塞和更耐用的网络数据传输InfiniBand体系结构将I/O控制从处理器内部转移到采用通道基、通用交换结构所构建的点到点全双工互连设备上,从而提升了数据在服务器、存贮设备和外设间的传输速率而在数据中心内部,InfiniBand则以单一的、易使用的I/O技术连接各类组件,从而使处理器、存储设备和外设以突破带宽瓶颈的速度进行通信,由于总体使用率的提高和停机时间减少,降低了与每项性能相关的拥有权成本因而InfiniBand在较小的空间具有较强的计算能力,这种高密集的计算特点使网络数据中心更易维护和管理,加上InfiniBand结构可以和现有的I/O技术标准如PCI、Fibre channel以及其他专用标准共存,因而采用InfiniBand可以获得更高性能和更高效率InfiniBand中数据是按可寻址的数据包进行工作的,一旦进入InfiniBand结构就可以路由至任何应用,而无须现有协议通常采用的直线和折线路由这保证了InfiniBand的可靠性随着IBTA技术规范的开放性和高可利用率,加之软硬件技术的快速发展、以及各种技术的创新,促使整个行业向InfiniBand解决方案转移,从而使InfiniBand的开放式体系结构具有更好的一致性和可互操作性,从另一个角度也保障了InfiniBand的可靠性。
InfiniBand这的可扩充性是通过其统一的结构和物理模块化两个途径实现的,通常共享总线I/O体系结构中,工作负荷的增加会是等待时间恶化而InfiniBand采用称为通道适配器的智能I/O引擎,这些系列化互连通道构成了一个结构,在物理上用一个或多个HCA(主通道适配器)将连接器、电缆和交换机组成一个整体其次,InfiniBand交换技术将HCA链接至TCA(目标通道适配器),利用通道基、点到点连接,而不是用共享总线存取操作配置将I/O从存储器子系统中分离开来,这使得连接至结构的设备无需考虑共享总线带宽,从而可按照最高速率进行通信InfiniBand这种I/O结构使之容易应付工作负荷的增加InfiniBand是一种“热连接”技术,通过插入新的存储组件和处理组件即可按需增添相应的资源,而不影响其它系统的工作热连接使InfiniBand系统的增添、拆除和维护比目前的共享总线I/O系统更加方便InfiniBand目前主要是针对SAN(系统域网络)的随着它在服务器和主机的大量应用,必然会推广到目标机上,一旦InfiniBand在服务器集群中站稳脚跟,它就会演变为高速服务器I/O,然后渗透到服务器对服务器和服务器对存储设备的通信中。
目前InfiniBand到PCI和其他现存总线接口的适配器已经大量出货,而与StarFabric和HyperTransport的接口也会很快出现结束语: HyperTransport技术是在机箱内提供高速数。












