|
随着云计算和虚拟化技术的普及,数据中心基础设施领域出现了很多技术创新。Amazon亚马逊负责数据中心的副总裁James Hamilton曾经说过,在最近5年内数据中心领域的技术创新超过了过去15年的创新之和,而这些创新基本上都是被云计算和超大规模互联网应用所驱动的。
Scale Up(纵向扩展)是IT界应对大数据、大容量、大流量的解决方案,也就是制造更大、更快、更强的IT设备,从而形成了“高性能服务器+高性能SAN存储+高速以太网”这样的“三高”IT架构模型。为了维护自己在业界的市场地位,各个计算、存储和网络厂商不停推出高规格的旗舰产品来证明自己的存在。但在新互联网时代,我们看到传统的Scale Up方案越来越力不从心,这不仅因为高性能设备的研发和制造成本越来越高,更因为传统的通过高性能设备实现的Scale Up方案自身的技术极限,无法满足大数据互联网的要求。
为了应对这个挑战, Scale Out(横向扩展)解决方案应时而出。所谓Scale Out,简单来说就是利用分布式和并行计算的原理,把原先由高性能设备完成的任务分布到一群设备上去完成,在满足处理性能要求的同时保证相关的高可靠性,并降低相关成本。
Scale Out是天生属于计算领域的。最早的高端企业级计算领域是大型机、小型机的世界。计算机的硬件、操作系统和运行在其上的应用都是纵向整合的。当时,IBM控制了整个业界的创新步伐。但是,在新互联网领域,面对terabyte级别甚至petabyte级别的数据集处理要求,Scale Out是目前唯一的选择。基于商用x8 架构工业标准服务器集群和分布式软件来构建互联网架构,是当前互联网领域的技术热点,典型代表之一是Apache Hadoop开源软件项目。
在IT基础设施领域,除了计算以外,存储领域也开始从Scale Up迈向Scale Out。一个主要的原因就是CPU的性能和密度持续超过旋转磁盘的读取性能。面对大数据快速读写,传统SAN/NAS技术架构就会出现技术瓶颈。把数据推向计算点,而不是计算点通过一个fabric从远端阵列获取数据的需求又回来了。
看完计算和存储,我们来看看IT基础设施的最后一块拼图――网络,是否也要走向“Scale Out”?答案是“Yes”。虽然单个网络产品本身的性能和接口带宽是不断向“UP”的方向发展的,例如在未来的数据中心,10GE接口将渐渐普及到接入层, 40GE/100GE接口也将在不远的将来进入实用,但是就整个网络架构而言,在计算和存储向Scale Out架构发展的大前提下,网络的Scale Out是必然的发展趋势。这里面有三点含义:
一、拓扑结构的Scale Out。新型的互联网将不再是传统企业网的三层或者多层组网,而是扁平化的二层组网架构。因为扁平的二层组网架构将最大程度地减少节点和节点之间的跳数和时延,更加有利于Hadoop等分布式软件发挥效能。扁平化组网要求网络核心模块有极强的弹性扩展能力,可以在节点数目增加时实现网络接入模块的按需挂接。
二、性能上的Scale Out。网络作为新一代数据中心的fabric,不能成为性能瓶颈。但是当单端口带宽达到一定极限的时候,就必须实现大流量在整个数据中心范围内的多个接入端口/上联端口的横向Scale Out。从本质上说,H3C的IRF2技术,以及针对数据中心大二层网络需求的IETF TRILL标准,都是这种Scale Out解决方案。
三、网络服务的Scale Out。所谓网络服务是指安全和流量分析等4-1层的网络增值业务。在传统的数据中心网络服务模块,如防火墙是作为一个单独的模块挂接在核心层或者汇聚层上的,总体来讲是一种集中式处理模式。随着数据中心规模和流量的上升,这种部署要求防火墙性能越来越高,以至于会成为一个严重的业务瓶颈点。因此在大数据互联网数据中心中,网络服务部署必须走Scale Out模式。简单的讲,就是在大二层组网下,网络服务模块必须贴近节点(物理的或者虚拟的),并通过分布式网络软件把大量、分散的网络服务模块虚拟化起来,统一管理部署和动态调配,来满足业务处理需求。
可以预见,IT架构的价值将从硬件转向软件,Scale Out模式对未来企业IT模型必将产生深远影响。
转载注明来源:http://www.ybaotk.com |
上一篇:网络环境下高校师生关系的定位下一篇:如何从《招生简章》中找寻院校信息
|