开启I/O云时代 Mellanox用Infiniband虚拟化网络
Mellanox是一家致力于为数据中心提供高性能计算、存储和云计算解决方案的知名企业。近日Mellanox亚洲区技术总监宋庆春先生接受了ZDNet记者的采访,介绍了Mellanox最新的发展情况以及自身产品技术的更新。他表示,2011年Mellanox将推出一款重要产品——速度达到52Gb/s的新一代Infiniband网络设备。
Mellanox亚洲区技术总监 宋庆春先生
据介绍,Mellanox的业务成长迅速,截止2010年12月底,已经为全球数据中心交付了超过700万个互联端口——而这一数字在2009年还只是500万个。宋庆春向记者表示,Mellanox于2010年底正式收购了Voltaire公司,从而使得公司总员工数增加到超过700人,并且拥有了从网络硬件架构到软件管理平台的一揽子解决方案。
Mellanox于2010年11月底宣布收购Voltaire公司,总收购价格为2.18亿美元——根据Mellanox的计划此次收购可以整合双方的优势,让Mellanox拥有Voltaire的交换设备以及相应的软件管理平台。时至今日,两方已经完成了收购之后的各项整合工作,宋总表示收购并没有影响双方的客户和售后服务,而产品也将继续保有这两个品牌。
对比去年和今年的数据中心合作伙伴以及客户可以看到——Mellanox的硬件合作商以及系统合作伙伴每年都有增加。
I/O云登场 Mellanox VPI将网络引入云计算
也许很多人都认为Infiniband只适合用在高性能计算领域——事实上Mellanox的Infiniband技术还为虚拟化以及网络虚拟化提供了完善的支持。宋庆春先生对记者说,服务器在做虚拟化时网络I/O往往是最大的瓶颈,他举例表示:
拿一台24核心物理服务器来说,如果做24个虚拟机,很多时候客户会选择插24块以太网卡——以保证虚拟机网络带宽I/O,而如果采用了Infiniband技术则可以充分利用Infiniband带来的超宽带宽,利用网络虚拟化技术来划分给各个虚拟机使用。
以VMware虚拟机为例,原先虚拟机之间的交换是由Hypervisor来完成,基于软件层面主要由CPU负责计算其中的交换数据——这样一方面对CPU造成了额外的开销,另一方面性能也远不如硬件网络设备。Mellanox的Infiniband技术可以让虚拟机之间的网络交换通过网络硬件来处理,实现高速传输的同时也解放了CPU。
在网络的可配置性方面,Mellanox也有自身独特的技术——利用QoS等技术来灵活的调配数据包的优先顺序,以方便系统通讯在计算密集时将I/O分配给计算数据包,最大化的让网络动态的适应目前的工作状态,以减少传统网络不够智能带来的通讯瓶颈。客户既可以将Infiniband虚拟成以太网络,也可以利用同一套设备虚拟成光纤网络用于存储互联。
此外,Mellanox还利用VPI技术(Virtual Protocol Interconnect)可以将Infiniband网络虚拟成以太网或者光纤网络运行相应的协议——宋庆春表示这是I/O云的底层基础。只有将网络底层硬件统一在高速的环境中,而网络协议可以根据需要让客户自由选择,这才是云计算落到I/O层面应该体现的技术特性。宋总举了个例子:他们有一个客户将一个Infiniband卡虚拟成了16个HBA卡,这样使得40Gb带宽被虚拟化分成了16等份——而如果同样的配置去买HBA卡一方面服务器扩展位置不够,另一方面也大大增加了网络的复杂度和成本投入。
此外,对于数据库方面方面的应用,宋庆春对记者表示——包括IBM DB2数据库和Oracle数据库服务器都在采用Infiniband互联技术来为数据库客户提供最低的通讯延迟,保证海量数据库的性能。私有云方面,Oracle的Exalogic Cloud方案主要面向的私有云业务也已经全面选择了Infiniband技术。
在行业用户方面,Mellanox Infiniband也是绝对的王者——全球十大银行中有六家选择了Mellanox,而自动化制造业前十名企业中有九家选择了Mellanox,相比之下能源领域的前十大公司也有七家选择了Mellanox。由此可见Mellanox在行业用户的高性能计算网络设备份额中占据完全主导的地位。