前言:中文期刊网精心挑选了数据中心存储方案范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。

数据中心存储方案范文1
引言
随着高校数字校园应用平台覆盖面越来越宽,数据量也越来越大,使高校数据中心不得不面对存储系统需要经常扩容的问题。以下画面可能是数据中心管理者经常面对的场景:需要新增一门或多门教学资源库,又需要额外申请资源库建设服务器和存储建设经费;而新购置的存储系统与原有系统并非同一品牌,甚至与服务器品牌也不一致,致系统稳定性降低……。这些信息表明,数据中心存储如何满足呈指数增长的数据管理的需要、如何实现不同存储平台之间的数据共享成为数据中心亟待解决的问题。
一、当前高校数据中心存储问题分析
高校的数据中心存储设备通常是根据业务系统的需要分批次进行建设,并在购置应用系统时购置相应的存储设备,从而形成了一套业务系统一套存储的现状。但在实际应用中,从存储的性能分析和有效利用上来讲,这种一套业务一套存储的方式造成了极大的存储资源和资金浪费。另一方面,对于高校而言,数据中心建立时间越长,遇到存储相关的问题越多。其中主要表现为以下方面:
随着应用系统的增加,尤其是OLTP业务的数据库的应用增加,数据中心需要更大I/O吞吐量的存储系统。随之带来的是,由于新建立的存储系统与原有的存储系统存储在接口和速度等方面的兼容性问题,而造成原有投资的浪费,导致数据中心总体成本不断攀升。
另一方面,在进行存储扩充的时候,存储的品牌也成为重要的考虑因素。在进行存储扩充的时候,扩充方案较大程度地依赖于原有存储与服务器的品牌,而导致后期的方案选择、成本预算等灵活性大为降低。
存储虚拟化是解决以上问题的有效办法。
二、存储虚拟化概念及其基本结构
1) 存储虚拟化概念
SNIA(存储网络工业协会)对存储虚拟化的定为:通过对存储系统或存储服务器的内部功能进行抽象、隐藏或隔离,使存储或数据的管理与应用、服务器、网络资源的管理分离,从而实现应用和网络的独立管理。从以上概念来看,存储虚拟化的本质是将物理的存储资源进行了逻辑化和抽象化,将应用系统对物理存储设备数据的访问变成了对逻辑设备的访问。这样从根本上避开了不同存储设备接口的差异性与管理系统的差异性,屏蔽了不同存储设备间的不同物理特性,并将其统一成虚拟逻辑设备,使管理和应用上更为方便,并为存储设备的动态扩展提供了可能。
2) 虚拟存储基本结构
虚拟存储通常由四级构成,即物理存储层、虚拟存储控制层、虚拟磁盘层和服务器层,如图1所示。
物理存储层处于最低层,也即为物理存储系统。此系统可以为不同品牌提供的存储系统,也可以为采用不同存储技术(如RAID10,RAID5等)的存储系统。
虚拟存储控制层由软、硬件构成,其虚拟存储软件运行于集群式的硬件引擎上,并采用工业标准的HBA卡与SAN网络接口相连以实现快速数据交换,并将存储控制层设计为一个完全开放的环境,以兼容各种不同的存储设备。在实际应用中可以将各种存储方案融合其中,从而实现了存储性能和存储容量方面平滑无缝的升级。
虚拟磁盘层通过软件或硬件将实体存储单元映射为虚拟磁盘并提供给服务器使用。实体存储系统中的一个或多个存储单元被映射为SVC内部的存储单元MDisk(Managed Disk),一个或多个Mdisk被虚拟化为1个存储池(称为MDG), MDG根据一定的分配策略(如Striped、Image或Sequential)分配虚拟的存储单元,称为VDisk(Virtual Disk)。虚拟磁盘即作为应用系统或服务器的直接存储单元。
三、虚拟存储方案及实施
不同的虚拟存储方案,其实现和实施过程稍有不同。下面以IBM SVC(SAN Volume Controller)虚拟存储系统的实施过程为例,说明虚拟存储系统的实现过程:
1)了解IBM SVC
IBM SVC是一套软硬件集成化的产品,专业的虚拟存储软件运行在集群式的硬件引擎上。硬件上,SVC与SAN网络接口通过工业标准的HBA卡相连接;软件上,系统使用了定制的IBM System x服务器,其操作系统基于Linux kernel,大大提高了易用性和可管理性。由于SVC是为一个完全开放的存储环境设计的,故兼容各种不同的存储设备,可以将多种存储方案融入系统。其灵活开放的体系结构和易于实施、易于在性能和容量双向发展的特点,使基于IBM SVC为基础的虚拟存储方案实施具有较强的优势。
2) 检查SVC的兼容性
IBM SVC兼容性非常广,但并非所有的设备都支持,故在安装之前需要检查操作系统与存储系统的兼容性。
操作系统上,IBM SVC支持Windows系统、Linux、Sun Solaris、Hewlett Packard HP-UX等操作系统。
硬件上,SVC可以支持包括IBM和非IBM在内的120多中磁盘存储系统,包括了IBM、EMC、HP、HDS、Sun、Dell、NetApp、Fujitsu、NEC、Bull等厂家的存储系统。
3) 检查安装空间与不间断电源是否符合安装需求。
BM SVC必须要一个19英寸安装机柜,至少需要一对SVC节点单元;需要准备一个不间断电源,最好同时提供一个冗余的不间断电源。
4) 完成硬件连接规划图
IBM SVC管理器设备与存储交换机可直接相连,并不需要对存储系统现有拓扑结构作大的改动。其拓扑结构图如图2所示。
5) 进行硬件安装及物理线路连接。将IBM SVC安装到预定的机架上,并用光纤将IBM SVC控制器接入到存储交换机上。
6) 在光纤交换机上设置Zone。主机Zone应该包含主机和SVC,存储Zone应该包含SVC的所有端口和存储的所有端口。
7)查找存储系统,发现新的Mdisk,创建Mdisk组并且选择组成该组的mdisk。
8)创建Vdisk,并选择Vdisk的创建方式。通常可选用Strip方式,这样Vdisk将架构在多块Mdisk上,能提供比较好的性能。
9) 格式化Vdisk,此时该Vdisk在格式化完成后将转变为online状态。并可被使用。如果立刻要使用该Vdisk,可以不选择格式化。
10)卸载各服务器上原有的对应厂商使用多路径软件,装IBM专门的系统存储多路子系统设备驱动程序(SDD,IBM System Storage Multipath Subsystem Device Driver)。
11)重新启动IBM SVC,系统即进入正常使用状态。
四、结语
通过虚拟存储的建立和实施,可以将现有的不同品牌、不同时期的存储系统整合成一个存储系统,不仅方便了管理,更有利于充分利用现有存储资源。同时,整合了现有的存储资源,完全避免了分散存储存在的不同存储资源利用率严重不均衡的现状。虚拟存储的灵活性也为今后存储系统的扩展提供了自由度。由于实施了虚拟存储,在需要扩充存储时,不再受原有存储品牌、类型等限制,为扩充存储的选购留下了空间。同时在存储的性能和可靠性等方面也有一定的提升。虚拟存储的特性决定了其使用的广泛性。在需要的时候,实现异地备份容灾、存储快照、断电恢复等将变得更为容易。
参 考 文 献
[1] 赵振辉.服务器与存储虚拟化技术在中小型数据中心的应用分析[J].数字技术与应用.2013(6):93~93[2] 蔡康,樊勇兵,丁圣勇,陈天.解惑云计算[M].第1版.北京:人民邮电出版社,2011
[3] 陈开兵.基于IBM SVC的某企业异构存储整合解决方案[J].中国电子商务.2013(2): 86~88
[4] 王志恒,李小勇.面向云计算数据中心的网络存储技术研究[J].微型电脑应用.2014(8)11~13
数据中心存储方案范文2
通过使用VSP磁盘存储系统中的通用卷管理器,将现有存储资源整合起来,能最大程度降低原有系统迁移的风险。
近年来,电力行业信息建设取得了很大的成绩,信息技术的应用水平有很大提高。国家电力电网公司、各发电集团公司及其他电力集团公司经过多年建设,初步建立了自己企业的信息网、办公自动化系统以及各类生产经营、业务管理的应用信息处理系统。计算机网络技术得到广泛应用,它奠定了国家电网公司改革后的信息化深入发展的基础,为信息化建设深层发展创造了条件。
目前,各电力集团公司总部一批专业管理信息系统得以建设,如:财务系统、营销系统、人事管理系统、计划统计系统、资产管理系统、设备管理系统等。为实现数据库系统的高可用,一般考虑采用大量高性能SAN存储系统架构来提高整体系统的可靠性和数据处理能力。
不过,因为SAN存储本身的技术限制,导致在存储的扩充性和可管理性上有一定缺陷。企业级信息系统通常考虑采用大量高性能SAN存储系统架构来提高整体系统的可靠性和数据处理能力。不过,因为SAN存储本身的技术限制,导致在存储的扩充性和可管理性上有一定缺陷。因此如何才能做到保证生产运行的情况下,兼顾稳定性、可维护性和可拓展性,有效地管理集中存储平台,是电力行业存储平台集中管理设计需研究的重要课题。
构建可靠核心存储池
通常,电力企业构建核心SAN环境,主要应用于ERP系统、OA及其他业务,核心存储主要用于ERP系统的存储与备份,采用1套EMC NS960中端存储阵列,随着业务不断扩张,需要为核心ERP系统建设稳定可靠的核心存储池,同时也需要满足未来其他业务系统对存储系统的需求。由此,需要在现有基础上增加一个适应未来的高性能核心存储。同时核心系统的备份、容灾也是存储管理中需要关注的一些问题点。(图3为该企业原有存储架构)
为符合电力系统统一的IT规划、技术规范和数据标准,保证其先进性和可扩展性。该公司经过前期咨询、现状调研、目标架构初设等阶段,在充分了解现有环境的基础上,以下述内容作为设计原则与前提条件:一是以业务影响分析作为策略选择的重要依据,二是以应用影响分析和现状调研分析作为方案的需求。
同时,方案也将遵循以下通用的IT架构设计原则:
1)开放性原则:系统符合开放性设计原则,具备优良的可扩展性、可升级性和灵活性,对现有技术具有普适能力,可以广泛支持开放系统平台,运行于现有或即将成为标准的各种相关技术标准上;
2)兼容性原则:与现有系统需完全兼容,各个构成子系统必须紧密衔接,高度集成,构成有机的整体,同时大大降低系统维护的复杂性;
3)安全性原则:确保应用系统的安全运行和故障恢复机制;确保数据的安全性,不能因做灾备而被破坏或降低;
4)稳定性原则:要保证系统的稳定性和可行性,使系统的运行风险降至最低。鉴于电力系统在人民生产生活中的重要性,在整体数据集中整合过程中,除去一些正常割接时间,要确保不影响各个地市的正常电力生产运营。数据整合过程要充分考虑整合失败的风险,有完整的整合失败的回退方案,可以在短时间内恢复生产。在保证生产的基础上,继续测试适合的整合方案。
5)可管理性原则:可以对系统进行集中管理和监控。不追求技术上的最先进,而要求能有最成熟稳定可靠的方案来解决此次数据集中整合的问题。鉴于电力系统核心数据的重要性,任何技术风险都是不可接受的。而且此类数据的整合项目大多会经过多次归并整合,即使少量的技术风险经过多次,可能性都会被放大。所以会尽量寻求简单高效,成熟稳定的解决方案来进行整体的数据整合。
6)保护原有投资原则:系统建设必须充分利用原有的资源,从而避免重复投资,并尽可能的对生产系统改动最小且便于实施。此次整合涉及的系统多,数据量大,影响范围广,因此越简单,变化越少的方案对整体风险的控制就越容易。因此,此次整体项目设计中,尽量不改变整体的硬件架构,使用最成熟稳定的架构。
7)经济性原则:在满足所有需求的前提下,选择合适的设备及管理软件,使系统具有较好的性价比,避免将项目建成一个长期的“吸金器”。整体设计不但要考虑数据集中整合时期的相关需求,也需要考虑到整合后整体系统的运行需求,包括可维护性,安全性,容灾,备份等需求。
本地克隆+同城异步容灾
一般来说,电力公司现有核心业务系统的数据保护手段包括:基于存储系统本身的数据保护、存储系统所有重要部件采用冗余结构、RAID技术提供物理磁盘一级的数据保护、全局动态热备磁盘,此外,系统设置全局动态热备磁盘及磁带集中备份,即所有生产数据均通过备份软件进行磁带备份。
经过分析得出,基于数据库ORACLE(RAC)方式的服务器主机保护技术,磁带备份、RAC数据库等机制保证了生产的安全稳定,但也存在一定潜在风险,如磁带备份手段的RTO、RPO较长;部分关键业务系统的存储系统存在单点故障,各系统均以单机方式工作,一旦系统出现严重故障,将对生产带来严重影响;系统没有远程灾难备份体制保护,一旦发生灾难,系统生产难以保证等。
为消除上述潜在风险,提高安全生产水平,方案考虑采用基于磁盘机的数据复制技术来缩短RTO以及RPO,同时通过“本地克隆复制+同城异步容灾”的机制来消除所有的单点故障并提供了完备灾难备份机制,从而提高系统完全生产级别,强化存储系统监控。
根据ERP应用和虚拟化系统规划,公司设计了一个高性能、集中化、高可扩展的存储及容灾整体设计方案,具体架构设计如图1。
该方案以VSP企业级存储为新增核心存储,同时通过虚拟化技术接管现有NS-960上部分存储空间以此承载现阶段核心系统及VMware虚拟化系统对存储系统的需求,以HDS VM企业级存储为新增容灾存储。
方案中,高可靠性的企业级核心存储服务器VSP和容灾存储HUS VM之间通过UniversalReplecator(UR)异步复制软件实现跨数据中心的数据容灾复制,提供核心生产数据的实时保护和快速恢复能力。
引入磁盘机数据复制技术
根据电力公司对现有环境的分析及对当前数据保护技术发展的理解,项目实施采用同城异步灾备系统总体架构(以采用ORACLE(RAC)的BS应用为例)
■开放系统生产应用分布在生产数据中心;
■生产系统存储采用HDS 高端磁盘阵列VSP
■容灾系统存储(同城)采用HUS VM
■生产中心与远程备份中心之间采用UR异步数据复制
■核心数据在远程灾备中心处产生异步复制数据外,本地再利用VSP虚拟化后的ShadowImage软件产生一份克隆数据,放在原有的NS-960存储上,在存储单机故障发生时增加一份数据拷贝
■两机房之间网络连接采用电信或移动的租用网络,并采用SAN路由器进行Fabric的隔离
项目采用HDS 通用复制软件Universal Replicator,是基于HDS最新一代的通用存储平台实现的异步远程数据复制软件。通过HDS通用存储平台的虚拟化功能,HDS通用复制软件可实现同构或异构存储系统之间的远程数据复制功能。HDS通用复制软件采用基于磁盘日志文件的技术,可以保证远程数据的一致性和完整性,同时,它能降低存储系统CACHE和通信链路带宽的需求。它是对HDS原有的异步远程复制软件的补充。HDS通用复制软件的原理如下图所示:
HDS UR超远程数据复制软件可以为项目带来如下受益:大幅降低存储系统的缓存消耗,提高带宽利用率,简化带宽规划工作,减轻网络故障影响,灵活地权衡恢复点目标和费用,减少生产/主存储系统的资源消耗,更方便地为多个数据中心提供先进的支持服务,充分利用通用存储平台,优化企业存储平台等。
三大特点增值存储方案
HDP(Dynamic Provisioning)是一个新的高级精简动态供给软件产品,它可以是用户节省存储的采购成本,减少存储管理费用。同时具备三个核心特点。
1、空间虚拟化――优化空间利用率及简化管理
动态供给使得用户可以将存储空间分配给应用系统,而这些存储空间在被使用前是没有真正的物理映射的。这种“按需”分配的方法意味着可分配的存储的空间可以超过实际的存储物理空间。当用户增加物理存储容量时,也不会打断应用系统的正常运行。动态供给具有了以下优点:
■减少了初始安装的成本,因为用户开始只需要购买必要的物理磁盘容量;
■减少了因为改变存储系统和主机系统配置的管理费用和时间。
■动态供给的优势:
■优化存储空间的利用率,传统分配方式容易造成空间浪费,并且能够减少空间分配管理压力;
■虚拟空间池的条带能够优化IO性能,当扩容时,虚拟空间池能够自动优化性能,重新打散,减少了巨大的管理压力。
2、存储虚拟化――现有存储设备的投资保护
在今天的信息环境中,应用复杂度在不断增加,如何使处于信息系统基础地位的存储系统能够为信息系统提供一个简单、可靠的存储环境是存储系统生产厂商不断追求的目标。
在电力企业现有的数据中心业务系统中,目前有NS-960等存储系统。
为了实现投资保护和提高投资回报,该公司考虑采用下列方案整合电力企业原有的存储系统到新建的存储平台:即将原有NS960的部分空间用于文件存储;而将另外一部分空间利用HDS虚拟存储功能,将原有的存储资源整合到新建的存储系统中,统一管理,有效地分配所有存储资源。
HDS公司推出的VSP磁盘存储系统恰恰实现了简化存储环境,提高系统可靠性的目标。HDS VSP磁盘存储系统不但提供了坚实可靠的硬件平台和超群的处理性能,还提供了虚拟存储管理功能。
在设计本方案时,该电力公司通过使用VSP磁盘存储系统中的通用卷管理器,将现有的存储资源整合在一起,对于前端应用来说,整合过程是透明的,可最大程度地降低原有系统迁移的风险,有效地保护原有的投资。
3、缓存分区――优化应用优先级及应用隔离
传统的数据集中存储系统设计一般是由一个存储系统为若干个应用提供一个公共的存储平台,其中端口、逻辑卷可以针对不同应用进行分配和优化,但是作为存储系统中对性能影响非常大的Cache资源却无法进行有效的分配,所有应用系统都共享同一Cache资源。
在某些应用系统的业务量突然增加时,对存储系统的Cache资源使用量激增,以满足应用系统对性能的需求。此时,其他应用系统的存储Cache资源就会被占用,系统性能受到影响。
在业务系统中有多种业务数据共存,所以从系统重要性和对存储系统的性能等方面考虑,应用系统的QoS要得到保证。
为此,在数据集中存储系统中,我们引入HDS VSP所提供的缓存分区管理(CPM)功能,将不同应用系统所针对的存储资源进行有效的分区隔离,VSP能够分配32个虚拟分区(本次已经配置了4个分区许可)。分区内包括主机通道端口、Cache和逻辑卷资源,在分区中的资源只能为接入到本分区内的应用系统使用,而且可以在分区内进行资源的动态调整,以适合应用系统的动态调节。
真正统一存储资源池
根据电力企业的未来发展需求和规划思路,该企业设计了更为完善、更为可靠的具有完整容灾特性的全局冗余存储域系统,即采用高可靠的企业级核心存储HDS VSP、HUS VM,通过同异步复制软件构建对等数据中心,提供核心生产数据的时时保护和快速可恢复性。
电力企业的两地数据中心建设可选择同城或异地方式建设,两数据中心间隔可以在几公里范围内,也可上百公里。因此,应根据实际业务应用以及各类数据的关键程度、访问的频繁度和利用效率等,采用分层存储(TSM)的方法,优化各个应用存取数据的方法和规则。可选择不同类型的磁盘介质存放关键与非关键数据、常访问与不常访问的数据等。采用SAN+NAS的共同存储域架构,完全满足各类主机访问存储资源的需求,提供各种性能访问存储的方式,适应不同风险与成本的运行模式。
因此,该公司对存储系统环境进行了重新规划(见图2)。该统一存储平台可用于所有业务系统,既可以存储结构化的数据(如ERP、CRM的数据库),可以存储非结构化的设计图纸和实验文档数据。HDS通过VSP及HUS系列产品,并通过VSP虚拟化技术整合已有存储设备,实现统一块存储资源池;也可以通过HNAS、HCP、VTL等网关,提供文件、对象及数据备份的存储服务。
根据“单一平台支持所有数据类型”的策略,相比其他企业不同类型数据、采用不同存储解决方案的设计而言,该方案提供了真正统一存储资源池解决方案。
写在最后
目前,电力企业在信息系统越来越复杂,如何才能设计最优的存储方案,才能做到保证生产运行的情况下,兼顾稳定性,可维护性和可拓展性,有效地管理集中存储平台,是电力企业需要解决的一个核心问题。
数据中心存储方案范文3
对于海航集团来说,云计算并不是花架子,而是为其业务的发展带来了实实在在的好处。然而又有谁知道,在构建云计算平台之前,海航集团的IT架构曾面临着非常大的压力。
数据中心扩张是冰山一角
海航集团是一个业务横跨航空旅游、现代旅游和现代金融服务等领域的综合性运营商。目前,海航集团拥有七大业务板块,包括物流、航空、机场、商业、地产、金融和酒店。
“从只拥有一个小机房到如今在北京和海口两地拥有四个大型的现代化数据中心,海航集团的信息化经历了一个从无到有、从小到大的快速发展过程。”作为这一发展过程的见证者,王世鸣深有感触,“以前,海航集团提出的口号是实现‘跨越式发展’,现在已经变为‘超越式发展’。在业务快速发展的过程中,IT如何支撑业务的发展以及数据中心如何适应业务需求的变化成了摆在我们面前的一个难题。”
2002年,王世鸣刚进入海航集团时,海航集团惟一的数据中心的面临只有二三十平方米,里面没有服务器机架,网络基础设施也比较简单。9年过去了,海航集团正在使用的数据中心有三个,还有一个位于海口的南方数据中心正在建设当中。据王世鸣介绍,正在建设中的南方数据中心可能是海南省最大的数据中心。该数据中心的规模和等级比一般运营商的数据中心还要高。
“等到这个南方数据中心启用后,海航集团两地(北京和海口)四中心的规划将梦想成真。北京的两个数据中心构成主备模式,海口的两个数据中心同样是主备模式,而北京与海口的数据中心之间还可以形成互备。这样一来,海航集团就实现了双备份的目标。这对于提升数据中心的安全性、可用性以及未来提供混合云服务是非常重要和必要的。”王世鸣介绍说。
数据中心规模的扩张只是冰山一角。它意味着海航集团的业务正变得越来越复杂,而且对可靠性、可用性、业务连续性等指标的要求也越来越高。“海航集团目前拥有下属公司300多家,业务系统超过200个,总数据量超过100TB。我们的IT系统要如何支撑业务的扩张呢?”王世鸣举例说,“从2007年开始,我们的IT需求一下子爆发出来。当时,新的信息系统不断上线。如何高效地整合和管理这些系统,从而提高业务运作的效率,降低整体拥有成本是一个十分棘手的问题。”
海航集团的数据量平均每年增长4~5倍,原有的运营架构及运营流程已无法满足集团业务对服务效率以及系统应用性能的要求。随着业务应用不断增加,海航集团的IT架构已逐渐演变成覆盖多个地区且包括多厂商、多平台、多系统的复杂IT环境。海航集团的存储系统也变得越来越复杂,而且很容易形成信息存储孤岛,这导致管理成本居高不下。因此,海航集团迫切需要简化存储系统的管理。
由于历史的原因,海航集团在不同时期上线的应用系统都有自己专有的存储系统。这造成了针对不同应用的存储系统各自为政,数据在不同的存储系统中难以共享和自由流动,存储系统的利用率较低,而且不能实现负载均衡。因此,实现异构系统的整合,同时实现系统的灵活管理成了海航集团构建云存储平台的重要原因。
王世鸣表示,海航集团希望寻求一套全新的基于虚拟化的核心存储平台,并在其上实现系统资源的整合和数据容灾。
架构、成本、效率的平衡
海航集团之所以对云计算架构情有独钟,原因其实很简单,就是为了获得了一个可灵活扩展的架构,降低整体拥有成本,提高业务运作的效率。这三点也是大多数用户最渴望解决的应用难题。
从架构上分析,不断上线的新系统导致海航集团的整个IT环境变得日益复杂,而且难以管理。由于数据分布在不同的IT系统中,数据管理、数据安全和数据的有效性都难以保证。HP 3PAR独特的节点集群可扩展架构和磁盘虚拟化技术,可以满足海航集团VMware复杂环境和随机的I/O要求,更好地实现异构系统的整合。
从成本上分析,传统的存储相互独立,容易形成存储孤岛,导致存储资源的利用率较低。HP 3PAR InSpire构架能够从根本上消除传统整体式和模块化存储阵列价格高昂、扩展复杂的弊端,大大提高存储设备的利用率,从而降低海航集团的存储采购和维护成本。
从效率上分析,一个必须解决的问题是如何有效提高存储系统的性能。王世鸣表示:“当IT系统的规模达到一定程度时,性能瓶颈简直就是一个噩梦,尤其是在业务迅速扩张的过程中,提高存储的性能更是至关重要。我们希望通过云计算、云存储这些新技术打破性能的瓶颈。”
中国惠普有限公司企业业务集团存储产品部产品经理杨溢举例说:“大型数据中心都会有大量的、密集的I/O访问需求,特别是业务类型较多的企业,比如海航集团的IT系统就是一个典型的多I/O并行、混合I/O密集型环境。像这样的混合I/O负载环境,就非常适合以HP 3PAR作为核心存储设备。HP 3PAR具有动态负载均衡能力,不仅可以在光纤链路环境中实现负载均衡,而且能够在存储设备内部实现存储资源动态负载均衡和自动分层存储,从而满足系统对高性能的需要。”
不建沙上之塔
依托四大数据中心,海航集团已经构建起一个较完善的IT架构。在这个架构之上运行着1000多个虚拟单元,云存储的总量超过50TB。王世鸣向记者描绘了这样一幅海航集团云计算蓝图:构建云计算基础架构平台,对外提供存储服务、计算服务以及数据接口等。“如果我们不能夯实基础架构,那么云服务就将成为沙上之塔,而海航集团的云计算宏伟蓝图也就无法实现。”王世鸣表示。
依托HP 3PAR云存储架构,海航集团已基本实现了私有云,并且很好地解决了架构、成本和效率方面的问题。从传统IT架构转向私有云,继而实现私有云与公共云的同步发展,这是海航集团发展云计算的基本思路。王世鸣表示,海航集团在云计算方面有两个目标:第一,让集团内部的所有企业能像使用水和电一样使用云平台中的计算资源、存储资源、开发环境等;第二,海航集团还希望未来能成为一个云服务的运营商,为集团以外的客户提供云服务。
HP 3PAR为云计算铺路
HP 3PAR存储解决方案不仅可以满足海航集团业务发展和提升管理及服务水平的需求,而且在架构、成本、效率这三方面找到了一个平衡点,为今后海航集团深入开展云服务奠定了坚实的基础。
数据中心存储方案范文4
关键词:传媒集团;新技术;应用;数据中心
中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2013)26-6005-02
1 建立私有云
在现阶段,虚拟化技术应用日趋势成熟,建立报业集团自己的私有云势在必行。私有云是建立在虚拟化技术之上的,因此,在新数据中心除了几台特殊用途的服务器不被虚拟化之外,其他所有服务器都应该是虚拟主机。但完全的虚拟化并不等于云。要想建立云,一个不可或缺的功能就是“自动化”。所谓“自动化”,就是要“非人工干预”。在现阶段我们工作过程中,一旦有什么新业务,需要建立新的虚拟机,都是需求方口头讲述任务需求,然后我们人工建立虚拟机再交给他们使用。建立云之后,这个过程就有一个全部自动化的流程。用户想要什么样的配置就可以申请什么样的配置,想要什么样的服务就可以申请什么样的服务,然后由我们来审批,一旦审批通过,虚拟机自动生成,用户可以直接使用。另外,根据不同资源的使用,来进行计费,申请使用的资源越多、服务响应时间越短,费用越高,这就是建立私有云所带来的效益,所创造的利润。
2 应用新的存储技术
数据存储包括“数据删重”和“流动数据”两个较新的存储技术。
当我们的数据中心投入使用后,整个虚拟系统中可能有成百上千台虚拟机在运行。每个虚拟机都肯定要安装一套操作系统,假设安装是Windows XP,那么安装一个XP需要一个5G的空间,如果1000台安装XP的虚拟机仅操作系统就需要5T的存储空间,但实际上每台机器的操作系统中90%以上的文件是相同的。如果存储系统有“数据删重”的功能,那么那些重复的数据块实际上只会存储一次,也就是说1000台XP的操作系统实际占用的存储空间可能只有200G,这就是“数据删重”的意义所在。而且“数据删重”对于操作系统和各种应用来说是完全透明的,因为这是在存储层面的“删重”,是硬件级别的功能。即使对普通的用户数据来说,这种“数据删重”也可以节约50%左右的存储空间。
另外一个很重要的技术是“流动数据”。流动数据架构能够提供数据块级的智能技术,以自动的方式在合适的时间把数据存放到正确的层级之上,让用户以合理的成本和极大的灵活性管理其复杂的数据。具体而言,流动数据技术不仅能让数据在不同的存储介质间智能的流动,还能让其在不同的RAID间智能的流动,甚至还能让其在同一磁盘的外道和内道间智能的流动,从而实现最优化的数据管理。简单而言,流动数据技术就是把使用最频繁的数据放到最快的存储上(例如:企业级SSD硬盘),把使用率最低的数据放到最便宜的存储上(例如:SATA硬盘)。当原来使用率很低的数据突然使用率大增时(例如:发生了突发热点事件,这在新闻界是很平常的事),它会被自动流动到速率更高的上一级存储中;当数据使用率降低的时候(例如:热点过期),它又自动流回到廉价的慢速存储上。
3 安全技术为保障
安全技术主要包括:防病毒、防木马、防入侵。针对虚拟环境的安全方案,我们分别测试了Symantec、StoneSoft、趋势科技三家公司的产品。Symantec是在每台虚拟机中安装一个来完成保护;StoneSoft是安装一个带杀毒模块的防火墙网关来完成保护;趋势科技是通过VMware vShield接口来保护虚拟机,VMware vShield需另外购买。StoneSoft和趋势科技的方案都不需要在受保护的虚拟机中安装。最后,Symantec的关键系统防护解决方案在评测中胜出。
StoneSoft公司专做硬件的防火墙(FW)、入侵防护(IPS)和VPN。它拥有自己独到的专利技术:反高级逃逸技术。逃逸技术一种攻击的传递方式,黑客可以利用逃逸技术隐藏攻击,逃避安全系统检测,攻击和破坏目标系统,就像隐形的战斗机可以避开雷达检测攻击目标地点。逃逸技术,就像一个隐藏的传送通道,将攻击输送到目标系统,而且没有任何日志记录。普通的防火墙和入侵防护对此无能为力。
StoneSoft公司的产品还有另外两个我们用得上的技术:一个是多链路技术,可以在多个网络连接间实现负载均衡,如图:
也就是说,可以在多个ISP出口(正如我们的新报业大厦)间实现负载均衡,哪条线路速度快就走哪条线路。另一个技术是多链路VPN技术。
也就是说在链路切换时,业务不需重新建立连接,永不间断。而且所有的VPN带宽同时可用,实现了带宽叠加。即如果ISP1和ISP2分别有10M带宽,我们VPN拨入时可享受最高20M带宽。如果将它放在整个集团的Internet出口上将非常合适。
4 应用负载均衡技术
负载均衡是一项很重要的技术,经过测试,我们考虑F5的产品,它可以对数据库访问、文件共享访问、Web访问甚至虚拟桌面访问都进行负载均衡。报业集团的新数据中心应该最大限度使用负载均衡技术,以负载均衡为核心来进行设计。这既可以解决系统高可用性的问题,也可以大幅提高系统运行效率。
5 建立双活数据中心
这个技术叫VPLEX,是目前唯一获得VMware vMSC认证的产品。vMSC(vSphere Metro Storage Cluster)是VMware为双活虚拟化数据中心存储虚拟化平台专设的兼容性认证。我们可以看到,这实际上就是一个存储虚拟化的管理平台。通过这个技术,我们可以建立两个数据中心,两个中心都是活动的,是负载均衡的,没有主次之分。一个中心宕了,所有应用自动迁移到另一中心,用户端感觉不到宕机的存在。有了这个系统,至少就可以不用建设冗余的远程容灾,能明显提高效率。当然,使用这个技术也要付出代价。至少在两个数据中心之间需要一条高速光纤链路;另外,两个数据中心的硬件性能不能相差过大,两个中心拥有的存储空间要大致相等。VPLEX技术理论上是可以使用第三方的存储产品的。以VPLEX为基础的方案名字叫:“EMC双(多)活虚拟数据中心解决方案”。这个方案在中国已有成功案例。如果资金充裕,可以此技术为基础建立一个全市范围内的真正的私有云。
数据中心存储方案范文5
4月22日,由计世资讯举办的“下一代数据中心国际峰会”在北京举行,本次大会的主题是“探讨中国数据中心绿色化之路”。IBM、惠普、爱默生、APC-MGE、埃森哲、Citrix、 Egenera、宝德、深信服等厂商不仅了其最新的绿色数据中心解决方案,而且给来自各行业的400多名企业用户带来了鲜活的应用案例。
经过一年多耗资巨大、声势浩大的宣传运动,“绿色数据中心”这句曾经相当空泛的口号,渐渐开始做实。
能耗和成本
催发绿色潮
计世资讯的最新研究报告显示,2007年数据中心市场的增长速度已经超过2006年,达到20.1%,市场规模为124亿元人民币;2008年的增长速度将提高到21.5%,市场规模达到150.7亿元人民币。计世资讯总经理曲晓东表示,“企业级数据中心市场规模的增长速度在未来几年将呈加速发展的趋势”。
“数据中心正处于引爆点,而能源使用和成本则是驱动因素。”IBM全球信息科技服务部数据中心及智能化集成服务亚太区总经理袁东坡在“下一代数据中心国际峰会”上如此说。
而本报2007年所做的一项数据中心调查,在某种程度上也印证了袁东坡的这一结论。调查发现,在CIO们认为其数据中心最为亟待解决的问题中,23%的被访企业认为是数据中心供电和散热能力不足,限制了其基础设施扩展,或无法部署高密度计算设备;有19%的被访企业认为,其数据中心的耗电量太大,费用无法负担;另有17%的被访问企业认为,机房温度过高,影响了计算设备的稳定运行。
在这一波数据中心绿化潮中,IT产业链的上下游企业表现出惊人的“齐心协力”。英特尔和AMD两大芯片厂商都了其最新的处理器节能技术和产品;IBM、HP、戴尔三大服务器和存储设备提供商都相继了绿色数据中心解决方案,并且在中国的企业用户中逐步实施;而诸如爱默生、APC-MGE这样的电源管理解决方案提供商也积极参与其中,为数据中心绿化潮推波助澜;虚拟化技术是绿色数据中心中最热门技术,因此像VMware 和Egenera这样的提供虚拟化软件的公司更是不遗余力地进行推动。
产业链的联动效应,有力地推动了绿色数据中心建设的进程。
实现途径日渐清晰
HP企业计算及专业服务集团首席技术顾问朱伟雄在接受记者采访时,热情邀请记者参加5月下旬在HP大厦举行的“绿色数据中心解决方案月”活动。HP在绿色数据中心方面的投入可谓不惜血本。4月1日,HP推出了耗资上千万元建造的“象征着新一代数据中心”的展车――“惠普绿色风暴”。朱伟雄还告诉记者,HP大厦正在搭建一个按照5星级标准建设的绿色数据中心。
在本次“下一代数据中心国际峰会”上,HP提出的绿色数据中心实现路径是,如何从“高成本的IT孤岛”转变为“低成本的池化IT资产”。HP的技术实现手段包括了IT系统与服务、电源与散热、管理、安全、虚拟化、自动化等等。
IBM提出了实现绿色数据中心的5大举措:一是诊断,也就是了解数据中心能源使用情况和改进的条件;二是计划建立并升级为能耗高效的数据中心;三是实施虚拟化以及其他创新技术;四是使用创新的冷却解决方案;五是通过能源管理软件获得控制能力。
UPMC也是IBM津津乐道的例子。UPMC是一个医疗保健机构,由于业务发展迅猛,其数据中心服务在5年内增长了4倍,因此数据中心显得相当混乱。在采用了IBM的数据中心解决方案后可谓立竿见影:在前5个月,通过虚拟化节省了980万美元;每台服务器的利用率从3%提高到80%;服务器能力提高了150%。
对于如何建设绿色数据中心,计世资讯给用户的建议是:开始,对企业IT能耗及污染情况进行全面测试和评估,把握能耗现状及分布状态,找到最重要能耗点;第一年,对节能制定总体规划,按照重要性顺序安排实施进程,确定投资额度,评估投入产出绩效,完成总体节能降耗规划;到第五年,从节能产品利用入手,逐步替代高能耗产品,开始基础IT环境改造,降低系统层面的能耗损失;后续年份,逐步采用智能化的技术,对负荷状况进行监测,合理安排能耗分布,实现节能目标。
警惕过度投资
工业与信息化部信息化推进司副司长洪京一在“下一代数据中心国际峰会”上表示,在建设数据中心前,企业CIO以及企业的领导者要认真考虑好如何从复杂繁重的维护升级和大量的后续资金投入当中解脱出来,使IT支出在营收中所占的比例最低化,以最合理的IT支出达到预期的效果。“保障和提高数据中心的绩效,是当前数据中心建设亟待解决的重要问题之一。”
对于绿色数据中心是否会造成企业的过度投资,企业的IT主管还是心存疑虑。计世资讯的调查表明,IT供应商绿色化解决方案还没有被用户充分认知,用户对IT厂商还存在重重疑惑,有61%的用户担心厂商的产品是否能真正地节能和环保。而节能环保缺乏客观的标准,也加剧了用户选择绿色IT产品供应商时的顾虑。
链接
全球数据中心将呈现四大主流趋势
趋势一: 整合。无论是出于IT成本过高、复杂性过大,还是资源利用率过低等各种原因,目前几乎所有类型的公司都在尝试将IT资源进行整合和集中,这其中当然也包括数据中心的整合。因为集中化的数据更便于备份、冗余和控制,也更有助于符合法规要求。
趋势二: 增长。虽然多数公司都在尝试将资源整合到更少的数据中心中,但对数据中心资源的要求致使服务器和存储的数量大幅增长。服务区和存储的增长会对IT部门造成更大的压力。同时,快速的增长给数据中心在环境控制、电源与冷却、空间管理等方面造成了巨大的压力。
数据中心存储方案范文6
1 引言
随着企业信息化进程的加快推进,企业经营与管理日益依赖于信息系统的可靠运行。在信息数据量迅速增长,数据重要性和安全风险不断提高的形势下,企业数据中心如何构建完善可靠的容灾体系已成为企业可持续发展过程中面临的重要课题。
笔者所属的企业拥有A、B两个数据中心,两地相距300公里。主要生产数据存储在A数据中心,该中心的业务数据都建立了本地数据备份,虽然一定程度上保障了数据的安全性,但是并没有建立完善的异地容灾系统。如果本地发生不可预测的灾难,极容易导致数据丢失,造成无法挽回的损失。为了确保重要信息系统的数据安全和关键业务服务的持续稳定,提高抵御灾难的能力,降低灾难损失,本企业迫切需要建设完善的异地容灾系统。通过技术调研和分析,本企业开展了异地容灾系统的建设,经实施和应用,取得了较好效果,达到了预期目的。
2 容灾系统技术方案
容灾系统建设需要考虑多方面因素,如备份/恢复数据量大小、应用数据中心和灾备数据中心之间的距离和数据传输方式、灾难发生时所要求的恢复速度、灾备中心的管理及投入资金等。其中数据复制是容灾建设的基础。数据复制技术按照实现复制功能的设备分布可大体分为三层:服务器层、存储网络层和存储层。结合本企业核心业务系统的特点和容灾系统建设目标,最终选择了基于存储网络层复制的容灾方案。为充分利用商用成熟技术,本容灾系统建设采用了基于存储网络虚拟化的IBM System Storage SAN卷控制器[Volume Controller,简称SVC]产品,以提高系统的成熟度和可靠性。根据企业实际情况,另外进行了数据级容灾,兼顾关键业务应用级容灾。
3 SVC存储虚拟化产品的技术特点
虚拟存储是一种智能结构的系统,允许以透明有效的方式在磁盘和磁带上存储数据,统一管理磁盘空间。在虚拟存储环境下,存储变得透明,无论后端物理存储是什么设备,服务器及其应用系统看到的都是其物理设备的逻辑映像。即使物理存储发生变化,这种逻辑映像也不会改变,系统管理员不必再关心后端存储,所有的设备将被统一管理,存储管理变得轻松简单。
IBM SVC是软硬件集成化产品,虚拟存储软件运行在集群式的硬件引擎上。它使用定制的IBM System x服务器,运行的存储操作系统基于Linux kernel。SVC实现了虚拟存储层的功能,将存储智能加入到SAN的网络中。SVC是模块化的结构,一个SVC的群集可以包含多达八个节点,互相之间可以负载均衡和失效恢复。每个节点有大的CACHE和高性能的处理器,SVC位于存储和服务器之间,可以把不同存储设备组成一个大型的存储池,其中的若干存储设备以一个统一逻辑设备存在,可以被系统中所有服务器访问,防止出现存储设备的信息孤岛。
4 具体实施内容
本企业异地容灾系统总体设计原则和建设思路:以A数据中心为生产中心,B数据中心作为灾备中心。采用无单点故障设计,A、B数据中心各部署6个SVC节点,其中SVC节点中2个作为1组,互为备份。采用SVC Remote Mirroring 远程复制功能,利用现有的A、B数据中心之间的千兆IP网络作为数据复制链路,将A数据中心的数据远程异步复制到B数据中心。
(1)生产数据中心:SVC设备的加入并不影响现有SAN环境的拓扑,因此只需要将SVC加入到现有的SAN存储网络中,即把6个SVC节点的24个8 Gbps光纤端口分别加入到2台博科SAN交换机。通过SVC虚拟化功能,进行存储物理磁盘到逻辑磁盘的转换,将EMC5500、
Sun ST6540、IBM DS4800共3套异构存储集中到一个资源池中来,实现存储虚拟化和数据远程异地复制。
(2)灾备数据中心:构建新的SAN环境。将6个SVC节点的24个8 Gbps光纤端口和新购置的IBM DS5300存储、SUN M3000和IBMX3650服务器分别连接到2台IBMB32 SAN交换机上面,通过SVC实现存储虚拟化和数据级异地容灾及关键业务应用系统级容灾。
(3)在生产、灾备数据中心各部署一台路由器,通过一条现有的千兆链路将两地的SVC设备相连,形成虚拟存储网络链路。
(4)在建立容灾时,使用SVC的Global Mirror异步镜像功能,通过2地SVC把生产数据中心存储的数据统一复制到灾备数据中心的IBM DS5300存储上。灾难恢复时,方向相反进行数据恢复即可,由此实现异地容灾。
(5)另外,利用SVC的FlashCopy功能将灾备数据中心的复制数据进行快照,可以用于验证,以确保容灾的数据是可用的,还可以用来帮助本企业根据生产数据对测试环境进行维护和更新。
(6)容灾系统拓扑图如(图1)所示。
5 应用效果
5.1 容灾系统具有高可靠性
整体虚拟化环节都采用多设备冗余设计,虚拟化节点SVC之间互相冗余备份,单个设备故障或损坏均不影响业务系统运行。可在不中断系统运行的情况下在线增加、更换SVC节点设备,甚至更换后端的磁盘阵列。
5.2 容灾系统具有高度的易用性
SVC 成为了一个集中管理点,统一管理资源存储。所有存储通过SVC统一的管理界面实现集中虚拟化管理,系统管理员可对来自不同厂商的多个存储系统开展一致的配置、管理和服务。操作界面简单易用,管理方便,降低了日常管理和维护复杂程度,减轻了管理员的维护工作量。
5.3 容灾系统具有灵活有效的数据复制功能
对于本企业拥有多种存储系统的环境,利用SVC提供的高级Copy Service功能灵活进行数据复制(多对一复制、双向复制等方式),可实现不同存储系统中的实时容灾备份和数据迁移,从而确保了本企业数据能采用统一的容灾备份策略,同时与其他厂商的容灾备份策略兼容。容灾系统通过可靠的远程复制和恢复机制,能确保数据的可用性和应用服务的稳定性,保证了业务连续性。