多年来,软件定义数据中心(SDDC)市场一直在增长,已成为一个行业发展趋势,其部分原因是由于虚拟化和云计算等技术的蓬勃发展。组织的基础设施已经发展成更具动态性和适应性,以满足更高敏捷度的业务需求。但什么是软件定义数据中心(SDDC)?以及现在如何从系统中实现?

软件定义数据中心(SDDC)的一个简单定义是整个基础设施可以在软件控制下进行配置的一个数据中心。这并不仅仅意味着部署服务器,还包括用于互联网络和可用于满足应用需求的存储资源。

除了谷歌、AWS和Facebook等大型互联网公司运营的数据中心之外,很多企业的数据中心需要能够应对客户资源不断变化的需求。这些为其他服务提供商和企业提供了一些模式。

跟随行业领导者

这些超大规模厂商从一开始就建立了他们的数据中心,但通常需要支持的服务范围有限。其他组织可能需要处理更广泛的用途和传统基础设施,它们不能一劳永逸地取代所有的基础设施。超大规模运营商也拥有和开发自己的自动化和编排工具的资源,而其他公司则需要与现成的商业或开源工具配合使用。

Ovum公司首席分析师Roy Illsley表示,软件定义网络和软件定义存储将成为未来几年IT支出增长最快的领域,其次是云编排和管理。

“而事实将会告诉人们,市场正在走向所有事情都将变成软件定义的事实,一切都由软件控制,IT部门的内部支出越来越多地转向软件而不是硬件。”Illsley说。

但是对于软件定义的手段没有单一的定义。虽然它对于服务器来说是相当简单的,因为它通常意味着使用虚拟机或容器在多个工作负载之间划分硬件资源,但对于存储或联网而言,事情并不那么简单。

例如,软件定义网络(SDN)将用于转发数据包的网络数据面板与管理整体流量的控制面板分开。为了支持软件定义网络(SDN),思科等交换机厂商必须使用OpenFlow等协议来配置其硬件,因此他们路由流量的方式可以由中央控制器动态管理。

但是,诸如OpenStack Neutron服务和VMware NSX等SDN平台在服务器上运行,并使用基于软件的交换来管理虚拟机之间的流量。它们还支持创建覆盖物理LAN的虚拟网络,但需要启用不同范围的IP地址和安全策略。

软件定义存储(SDS)也很难确定。也许最常见的定义是分布式存储服务,例如Red Hat的Ceph或Gluster产品。它们用于从服务器节点集群的组合资源中创建可扩展的存储池,并将其作为块存储、对象存储、文件系统或这些存储的组合。

同时,软件定义存储(SDS)也可以引用存储虚拟化,如DataCore的SANsymphony。这将现有存储基础设施(包括来自第三方供应商的阵列)抽象并整合到一个虚拟SAN中。然后,它为这个存储池提供一套统一的存储服务,包括服务质量、自动精简配置和自动分层。

不管人们如何描述它,软件定义的基础设施的目的是灵活的:通过高级管理工具来配置、控制和监控。这可以通过诸如Puppet之类的配置管理软件,或者诸如OpenStack或Mesosphere的DC/OS之类的编排平台来实现。

但是许多组织会有很多遗留工具包,可能不适合这种运营模式。这意味着他们可能被迫运行“双速”IT基础设施,而刷新周期逐渐引入可由软件定义的现代工具包。

为了解决这个问题,一些新的平台被描述为预先打包的SDDC解决方案。VMware公司的平台就是一个很好的例子,它基于三大支柱:用于运行虚拟机的vSphere,软件定义的存储产品vSAN,以及提供软件定义网络的NSX。

这些软件以各种方式与管理工具套件相结合,提供诸如VMware Cloud Foundation之类的产品,这些产品可以部署到客户自己的数据中心或公共云上的超融合系统硬件上,就像AWS上的VMware Cloud一样。

微软公司将Windows Server 2016推广成为软件定义数据中心(SDDC)平台,这要归功于运行虚拟机的Hyper-V,Storage Spaces Direct和Hyper-V虚拟交换机以及用于管理的System Center套件。

还有其他类似的产品,大多数需要客户购买完整的集成平台。这些解决方案可以从少数几个节点开始,然后扩展到机架级别,甚至更大规模,但所有这些都将客户锁定在一个供应商的平台上。

如果组织更喜欢开源软件的替代品,那就是OpenStack框架。这个模块化架构由许多独立的项目组成,核心模块分别包括用于管理计算的Nova,用于配置网络的Neutron以及用于块存储和对象存储的Cinder和Swift。

OpenStack被欧洲粒子物理实验室(CERN)特别用于管理成千上万的计算节点,从而成为构建服务于大型强子对撞机和其他实验的IT基础设施。

到目前为止只涉及IT基础设施,但数据中心还包括配电和制冷等其他设施。这些设备是否也可以在软件控制下进行管理,以便最有效地利用资源?

软件定义电源开始受到诸如Virtual Power Systems公司(VPS)等供应商的关注。该公司开发了其智能控制能源(ICE)技术,以便在高峰负载期间使用UPS满足部分电力需求。这意味着配电基础设施不必过度配置,以应对可能不会经常发生的高峰负荷,而数据中心所有者可能会得到来自能源公用事业的折扣。

在冷却方面,数据中心基础设施变得更加智能化,但很少实现“按需冷却”销售。早期的一种方法来自HPE公司,几年前该公司利用传感器和计算流体动力学(CFD)分析数据中心内的空气流动,并将冷空气引导至最需要的地方。

最近,液体冷却技术提供商提到他们的技术能够精确地从其产生的地方去除热量,而Aligned Energy的子公司Inertech公司正在提供一种系统,其中冷却单元分布并位于机架上方,因此可以根据需要按需提供冷却。

显然,数据中心的所有方面都变得越来越重要,并且通过软件更精确地进行控制。数据中心的未来是软件定义的,但仍然存在两个问题:这将是什么样子,组织需要多长时间才能实现?

超融合如何与软件定义相适应

超融合系统(也称为超融合基础设施,HCI)代表着越来越多的服务器出货量进入企业市场。这有很好的理由,超融合系统将服务器、存储和网络功能组合为一个类似设备的节点,使组织更容易采购,并支持新的基础设施。

特别是IT部门经常从各种不同来源的现有服务器、存储和网络部署中构建私有云。当这些公司来更新他们现有的基础设施时,超融合系统已经成为一种交钥匙解决方案。超融合系统使用直连式存储来代替传统的SAN。集群中所有节点的存储资源汇集在一起,??形成软件定义的存储平台或节点之间共享的虚拟SAN。

这听起来很像软件定义的基础设施,事实上的确如此。但需要注意的是,超融合基础设施涉及运行在同一节点上的计算和存储,而典型的软件定义的存储部署使用仅作为共享存储系统操作的节点集群。

从这个意义上讲,超融合基础设施可以被认为是软件定义数据中心的一个标志。它采用简单的单个节点的情况,而完整的软件定义数据中心(SDDC)将在很久之后才会实现。

信息化和软件服务网 - 助力数字中国建设 | 责编:夏丽