展望数据存储技术的未来
光纤通道目前是建立SAN架构的唯一选择,但是随着新技术和市场的双重作用,将来可能会用G/10G以太网和/或InfiniBand架构(简称IBA)来实现SAN数据存储技术。
尽管光纤通道是一种占主导地位的SAN数据存储技术,但仍然存在一些问题。设备层的互操作性已经不再是主要的问题了,但交换机之间的互操作性却是一个潜在的问题。另一个主要的问题在于SAN的管理。当前,大多数SAN管理解决方案都需要一个独立的以太网连接,这样才能传递管理指令。这种管理被称为“带外管理”。那些支持诸如“IP光纤通道”或“带内管理”的解决方案最近才开始出现。IP光纤通道在光纤通道SAN和IP网络之间通过新的网络接口进行连接。该网络接口将光纤通道框架封装进IP包,并将光纤通道框架域映射到IP地址。这样,SAN数据存储技术可以扩展到IP网络,而且光纤通道架构和服务器、存储设备及软件不必进行任何转换。IP光纤通道可以把光纤通道SAN集成到IP广域网中,保护用户现有的光纤通道SAN软硬件投资。
在一项旨在让I/O总线体系结构从服务器和PC中"解脱"出来的特殊的设计行动中,202个成员组成的InfiniBand贸易协会(ITA)提出了有关服务器"结构(fabric)"体系的1.0版本的规范。
ITA成立于1998年8月份。这是由Intel、Microsoft、Sun、Compaq、IBM、HP和Dell 等业界巨头所发起的成员高达202成员的一个工业组织。其中Intel是InfiniBand事实上的领导者,也是最大的支持者。
Infiniband规范体系结构(简称IBA)包含一下重要核心内容:协议分层结构、面向多层的连接、基于包交换的通信、多播(组播)能力、包及单节点容错、子网管理能力、支持多种连接速度(单速,4速,12速)、提供2.5Gbps(单速)/10Gbps(4速)/30Gbps(12速)单向数据链路、PCB,电缆和光纤传输媒介、远程DMA访问的支持、QOS问题的考虑。
目前,几种现有的和比较近的未来的网络互连标准正在为争夺数据存储技术市场而展开竞争,Infiniband的几个明显的竞争对手就是PCI-X,G/10G位以太网,Fibre Channel, Rapid I/O,HiPPI-6400(GSN)。而在数据存储技术解决方案中,Infiniband将遭遇到G/10G位以太网技术的挑战。
IBA允许每个子网有64000个节点通过高密度端口的Infiniband交换机相连。与G位以太网技术相比,IBA结构具有以下几个明显的优越性,特别是在物理层设备(PHY)模型的考虑上,Infiniband指定了在每端口最小0.25瓦最大长度为16米的铜线上运行。G位以太网定义在每端口最小2瓦最大长度为100米或更长的铜线上运行。考虑一个企业级的比较接近的系统,低功耗的IBA可实现更有效的低电流的HUB设计。
基于IBA架构的计算机体系结构如图1所示:
图1:基于Infiniband的计算机体系结构
IBA架构的计算机通过对存储节点进行定制,就会成为海量存储专用系统,上图实际上可以认为是一个基于IBA的SAN结构。
Infiniband体系结构确实非常富有吸引力,特别是与其他现有的和比较近的未来的标准相比。目前还没有任何单一的在市场上大量应用的标准内容有IBA这么丰富。性能也是非常棒的,传输率可以达到30Gbps,同时系统通过双CRC,虚通道,优先级控制,基于信用的流控制来维持较高的性能和可靠性。IBA提供了内部和外部级别的互连的支持,如PCB,铜线,光纤等传输媒质。
有关软件对IBA支持,特别是操作系统级的支持是人们关心的问题,迈勒罗斯已经发布了应用于他们Linux操作系统IBA标准。Linux的开放源代码的特性允许人们任意修改。同时微软的windows2000和未来的Whistler也提供了对IBA的支持。但专家认为,互连I/O应该有可以绕过操作系统进行工作的功能,以确保实时性和对时延很敏感的应用的Qos,Unix系统的支持也会很快。此外在价格方面,人们关心Infiniband是不是能在用户级价格实现。实际上IBA的发起者将其价格定位在G位以太网和FC技术之间,如果这一估计是正确的,那么IBA很快就会在目前所有的互连结构标准中占据统治地位。但IBA并不是将来工作站和中等桌面PC的I/O标准。IBA将引发I/O互连领域的一场风暴,到底情形如何,人们拭目以待。 #p#page_title#e#
Infiniband沿袭了SAN和NAS数据存储技术的一些概念, Infiniband将处理计算、存储I/O、网络I/O等功能完全分开,这种设计真正体现了计算机体系结构的最终思想,即以网络为中心的架构。采用这种架构,可以非常灵活的根据用户的需要来定制系统,对于高性能计算,如果对计算能力要求非常高,那么就需要将处理节点的数目配置的非常高,对于网络服务器,如视频服务应用,对存储,网络带宽,内部数据交换能力要求很高,这时候,系统就需要根据这种要求来定制。
Infiniband体系结构内部的构架采用专用的通信网络和协议,对于处理节点,其通道适配器称为HCA,对于I/O节点,其通道适配器称为TCA,无论是HCA还是TCA都可以认为是一个Infiniband内部通信网络接口,Infiniband网络是一个专门的走专用协议的高速交换网络,这个网络的交换能力根据用户的需求来具体配置。
图2:数据存储的未来
图2给出了数据存储技术未来发展走向的预测,值得注意的是,按照目前发展的进程,由于10G以太网交换机将与Infiniband交换机将同时问世,未来的几年也许是这两种体系下数据存储解决方案的又一场恶战,结局到底如何,我们还得看3年以后的市场情况,除非有比10G以太网更诱人的价格,那么从感觉上说Infiniband的风头将会被10G以太网完全盖过。
从最初的服务器,到目前的围绕数据存储技术的一些变化,我们可以大体上看出计算机服务器体系结构网络化的趋势,即目前的内部总线架构将逐渐走向消亡,形成交换式(fabrics)网络化发展方向的趋势,在最初,数据存储、计算处理和I/O是合为一体的,而目前数据存储部分已经独立出来,未来将是I/O和计算处理的进一步分离,形成数据存储、计算处理、I/O吞吐三足鼎立的局面,这就是真正的服务器网络化体系结构,正应了SUN公司提出的“网络就是计算机”的论断。根据以上分析,围绕数据存储技术的服务器体系结构的发展趋势如图3所示:
图3:围绕数据存储技术的服务器体系结构的演变