惠普存储和服务器集群解决方案

2024-08-01

惠普存储和服务器集群解决方案(精选7篇)

篇1:惠普存储和服务器集群解决方案

IT管理员睡着了,没有察觉到电力供应中断了,数据中心被关闭了,当你面临这样的挑战时,你需要一个能带给企业 零停工时间和更好业务回报的存储解决方案。

HP StorageWorks XP Cluster Extension (XP CLX) Software 和HP StorageWorks EVA Cluster Extension (EVA CLX) Software,采用很方便的故障转移/自动恢复决策技术,在故障转移期间,无需重启服务器或更改LUN呈现/映射。

HP的这个集群解决方案可以在计划停机期间或发生不利事件时,保持企业信息的可访问性,和用户最多的应用可用性要求。集群解决方案可以给用户带来:完全的故障转移自动化,站点保护,连续恢复点,以及在故障恢复期间不需要重启服务器。

下面我们会看到一个应用HP解决方案的实例。

位于安特卫普的Cobelfret公司每年要航运5千万吨各种货物,

除了拥有货运舰队和特许散货运输,该公司还经营世界各地的拖船业务。货运不是该公司的全部业务,它还经营固定航线服务。

为了支持如此复杂的运营,Cobelfret公司需要确保其关键业务商业应用持续可用。同等重要的是它定制开发的专有应用。例如,它的每个客运站台可以存放25000辆汽车,如果站台管理程序中断了,就会造成混乱。同样的,渡口预订系统要是出现故障,渡船航班就无法运行。

为了使效率最大化,该公司使用商业和企业级应用来帮助其实现准时航运。对于准时运营而言,数据和应用的可用性是关键。如果网络和应用崩溃,航运就会停止。该公司希望确保IT系统运营绝对不会停机,并且数据要通过备份始终保持轻松可用。但是该公司分散在欧洲13个地点的、非集中化的服务器和应用造成了困难。

Cobelfret公司开始寻找解决方案可以改善备份性能和可靠性,集成和中心化应用,并且通过构建2个对称的数据中心确保无故障运营。

经过比较,该公司最终选择了HP的解决方案,包括有:HP StorageWorks Enterprise Virtual Arrays (EVA) 、HP StorageWorks Cluster Extension EVA软件、HP Data Protector软件和HP BladeSystem服务器。

客户在部署了HP的整体解决方案后,获得了很好的收益。由于提高了工作效率,并节省了IT维护和解决故障的费用,据估测,5年累计净收益超过75万美元。这个系统的投资回收期是34个月,ROI为178%。此外,由于备份性能和可靠性的改善,企业获得了更好的应用可用性,以及更少的停机时间。

篇2:惠普存储和服务器集群解决方案

3月14日,惠普在北京发布最新的MSA1000存储解决方案以及新的分销商渠道促销计划。这场名为“2003面向工业标准服务器的存储解决方案春季发布会”的活动,吸引了惠普众多的合作伙伴和增值经销商参加。

“面向工业标准服务器的存储解决方案”是惠普公司依照企业最新对工业标准服务器的存储管理需求所设计,

新方案不仅支持工业标准服务器,还能够支持各类入门级和中档的Alpha服务器,这是面向Alpha用户的第一款入门级的SAN解决方案。此外,MSA1000还兼容目前的惠普外置交换机及可选的2GB嵌入式光纤通道结构交换机,它可以为用户提供经济的全结构交换机连接,支持低成本光纤通道基础架构的开发。惠普还向合作伙伴和经销商们展示了惠普NT平台的其它相关存储产品以及新出炉的分销商渠道销售计划。

此次活动还将在广州和上海陆续展开。

篇3:惠普存储和服务器集群解决方案

1项目背景

我院PACS一期工程自2009年4月上线运行以来,一直保持运行稳定的状态,可用率在99.9% 以上。该系统实现了放射科和核医学科内部影像诊断无纸化、无胶片化的工作流程,真正做到了医院信息系统(HIS)/ 影像信息系统(RIS)/PACS多系统的无缝集成,极大地提高了放射科、 核医学科和临床科室的工作效率。系统架构,见图1。

系统上线后的4年间医院增加了MR、CT等大数据量影像设备,随之就诊量也不断增加。面对持续增加的影像设备、不断增长的影像数据量,原有PACS已经难以满足目前的应用要求。系统主要面临的问题 :

(1)存储设备急需改善。在线存储的空间目前只能保存半年内检查病人的影像资料,超过半年的影像资料需要从归档系统中获取,严重影响了调阅速度,降低了影像科室的工作效率。归档存储设备的不足,将会影响影像保存15年的要求。而且,目前系统使用的存储设备已经超过3年, 影响了保障服务的可靠性和数据的安全性。而且核医学数据是通过光盘刻录方式进行离线保存,此方式容易造成数据无法统一管理、病人核医学检查图像无法在全院范围内共享。

(2)服务器计算支撑能力不足。随着已经接入和预期接入设备的增加,在线存储数据容量的扩充,对应的3台DICOM应用服务器和1组影像负载系统已经出现瓶颈,开始影响数据的传输速度。

(3)工作站数量与检查诊断工作量不匹配。随着设备、 检查量的增加,需要增加对应的工作站来辅助医护人员完成登记、检查和诊断工作。目前项目中采购的软件授权即将使用完毕,需要按照新设备购置后的工作量予以配套。

由于医院发展迅速,现在的系统无论在安全性还是在效能上都已经不能满足医院的使用需求,系统的稳定性、 安全性以及可用性面临着严峻的考验。因此,信息科根据厂商提出的升级方案,建议 :

(1)增加存储设备,按照现有业务及预测未来3年的增量,提出150 T的总容量建设规划。如按照二级存储的建设规划,一级存储预计规划的容量为36 T,归档规划容量为100 T。

(2)增加在线存储管理服务器数量,避免在线存储在读写时出现瓶颈。

(3)增加归档存储管理服务器数量,实现高可用性, 保证归档数据安全存档与调阅。

(4)扩展影像设备连接服务器数量,按照影像设备与存储设备的扩展,同步增加包括DICOM应用服务器、影像负载系统和归档管理服务器。为更好地规划和利用硬件设备,本次升级后的上述各个服务器计划采用虚拟技术,以实现双机冗余、高可用性以及虚拟存储空间管理等。

目前由于信息科服务器旧机房空间有限,机柜已经无余量空间,机房环境也达不到升级要求,因此需要将旧机房的PACS服务器与存储集群整体迁移到新大楼服务器机房中,便于服务器和存储的下一步升级工作[1,2]。

2方案设计及实施

2.1组建项目组及沟通计划

(1)由于此次搬迁涉及到多方成员,因此信息科协调各方资源,梳理项目干系人,组成了一个强有力的项目团队[3],其中包括 :1信息科人员 :负责协调各方资源,准备院内环境,协助各阶段的测试工作 ;2 PACS提供商 : 负责迁移方案设计和迁移计划制定,由于我院PACS的服务器也是由此公司负责,因此服务器搬迁规划也由其负责; 3存储设备提供商 :负责按照搬迁计划,设计存储设备搬迁方案,并协助调试存储设备 ;4网络设备提供商 :负责按照搬迁计划,设计网络搬迁方案,并协助调试存储设备; 5搬迁公司 :由PACS厂商引进,准备搬迁工具,负责机器的搬运、上架、理线等工作。

(2)项目实施进度跟踪与控制,根据项目工作任务分解结构对项目活动的执行情况进行统计,由项目经理对未能按期完成的项目活动进行记录、调查原因,并调整计划、 资源,以保证整个项目的工期。1项目沟通关系 :依存原医院PACS项目组织结构,加入各厂商的沟通方式 ;2沟通方式 :通过书面文件、Email、电话、项目会议的方式进行 ;3为了更及时掌握进度信息,当遇到特殊情况(如工作日期发生变更、发现重大问题)时,要求在1个工作日之内,以电话、Email等形式、按职责要求通知到各方 ;4最后由项目经理以电子邮件方式汇总项目实施情况。

2.2风险识别及应对计划

风险识别及应对计划,见表1。

2.3实施搬迁

(1)准备阶段[4,5]:1场地准备 :包括机房调研、网络 / 基础设施准备、设备存储准备 ;2准备搬迁方案 :方案由PACS供应商起草,各方讨论并最终确定 ;3应用配置设计 :包括起草应用配置、应用配置文件完成 ;4第三方系统集成 :包括搬迁后PACS与HIS及其他各系统集成的修改准备文档。

(2)测试阶段[6]:1数据迁移测试:执行数据迁移计划, 数据完整性检查 ;2服务器迁移测试 :备机准备,选取1台冗余的服务器,先期搬迁,检查搬迁流程 ;3存储设备迁移测试 :PACS存储设备为1台EMC CX4-240(在线数据)和1台EMC Centera(归档数据),由于厂家无法提供Centera的技术支持,因此本次迁移不包括EMC Centera。 将在线数据备份到其他存储上 ;4网络规划 :新机房网络的配置及测试。

(3)执行阶段[7]:在信息科通知医院相关科室,确定搬迁时间后,于9月27日晚6点整正式开始搬迁工作,历时18 h,至28日中午12点成功完成PACS服务器及存储集群的迁移。其中工作包括 : 1搬迁工具准备(防静电手套、 工具包、手电筒、搬运车等),标记好所有待搬迁的机器设备; 2停止应用 ;3关光纤交换机、存储、服务器 ;4根据计划,搬运车上放置减震垫,搬运速度< 3 km/h,专电梯服务,逐一搬迁服务器及存储设备并上架 ;5理线 ;6加电改ilo; 7加载系统; 8测试网络及存储; 9测试系统(流程);10测试集成 ;11巡查环境 ;12真实患者测试。

2.4搬迁中的问题和解决方案

在此次搬迁过程中,尽管前期准备工作充分,方案已尽可能详尽,但是在实际操作过程中,仍然遇到了一些问题:

(1)理线工作。在搬迁过程中,忽视了理线工作的重要性,导致搬迁现场没有专业的理线人员。发现问题后, 紧急调配理线专业人员。从人员进场到理线完成,大约用了6 h。

(2)网络回路问题。虽然经过了前期测试,但是在所有设备搬迁完成,加电测试过程中,系统服务始终不能正常启动,经过各方反复查验,发现是工程师配置网络出现环路所导致。找出问题根源后迅速解决。

3结语

随着医院信息化的进一步深入和调整,越来越多的机房会改造、新增,医院的信息网络中心是否能够安全顺利完成搬迁任务对医院业务运行将起到重要作用[8,9]。而机房迁移是一项复杂而细致的工作,涉及到多个部门、单位互相协调、配合; 同时也涉及多个学科领域,包括计算机硬件、 软件、 网络、 项目管理等。在机房搬迁开始前制定周密计划, 软件和硬件方面的完整准备工作是完成此项工作的重点和关键。

摘要:结合我院实践,探讨PACS服务器与存储集群系统迁移在数字化医院建设中的应用,从项目管理方面介绍了方案设计到实践操作,为数字化医院建设和发展做出有益探索。

篇4:惠普存储和服务器集群解决方案

惠普工作站及瘦客户机业务部门产品管理副总裁杰夫·伍德(Jeff Wood) 表示,“作为工作站领域的领导者,惠普将继续基于用户需求开发创新的解决方案,满足用户工作中的业务需求。解决存储瓶颈,向专业人士提供先进的视觉解决方案,对客户的设计工作流程提供有力支持。”

HP DreamColor Z32x 显示器提供了超乎想象的色彩精确度和一致性,提高了细节的查看能力,数码艺术家和创意工作者可在31.5 英寸屏幕上享受4K 超高清画质。HP DreamColor 创造性地应用宽屏10-bit 色光谱sRGB/BT.709/AdobeRGB(色彩覆盖率达到100%/100%/99.5%)。使用HP DreamColor 解决方案或是Klein Instruments 的K10-A 快速简易地进行重校。

HP 超窄边框显示器家族展示了全景无边框高清面板设计,产品在工厂经过校色,支持无缝多显示器拼接。型号分为HP Z27n ( 四倍高清 Quad HD), Z25n ( 四倍高清 Quad HD), Z24n ( 屏幕比为16:10 ), Z24nf ( 全高清Full HD), 和 Z24nq ( 四倍高清 Quad HD), 提供边到边超宽视觉体验,可大幅度提高工作效率。

HP Z Turbo 硬盘极大地提升了工作站用户的生产力和创新力。HP Z Turbo Drive G2 PCIe 固态硬盘采用三星NVMe 协议,是传统SATA 固态硬盘性能的4 倍,费用却相差不多。通过采用为闪存技术而设计的全新NVMe协议,HP Z Turbo Drive G2 性能比G1 翻了一番。第二代HP Z Turbo 硬盘处理大数据时可达到超快的I/O 响应速度。高性能的HP Z Turbo Drive G2 硬盘,集成高容量的SATA HDD 硬盘和SSD1,HP Z840,Z640 和Z440台式工作站可以轻松实现扩展。

篇5:惠普存储和服务器集群解决方案

在线存储和SAN经济方案在更具可扩展性的存储环境中简化存储基础架构、增加存储效率

随着业务数据库的持续增长, 需要增加资源来管理扩充的数据资产,

惠普在线存储与SAN经济解决方案

同时,传统的将数据存放于服务器的方式存在局限性:当到达能力顶点是,应用性能和用户生产效率开始下降。增加的附加存储需要服务器离线工作,这就进一步降低了用户生产率。

现在有一个简单和更高效的方法:采用网络存储整合增加存储的利用,打破存储孤岛,形成一个单一的存储池。用户将进一步增强应用的可用性,利用规模经济轻松增加或减少存储能力。

篇6:惠普存储和服务器集群解决方案

公用存储整合加速云服务部署

据了解, 惠普通过对3 PA R公用存储与HP Cloud System的整合, 将其打造为最全面、最整合的云服务方案, 用于构建和管理公有云、私有云以及混合云环境。该整合实现了跨存储、服务器和应用的自动化管理和供应, 可以帮助客户加速部署云服务。

惠普3PAR存储系统通过自动精简配置功能提高存储利用率, 使服务商和企业能够根据自身发展以更高的性价比扩展存储。而HP CloudSystem解决方案可以为私有云、公有云以及混合云环境下的存储供应和管理提供一个统一的方式。这个系统和方案的整合能够集中管理服务器、存储和网络资源。整合后, 通过带有自动精简配置、分层存储功能的存储资源目录单一控制台, 客户能够轻松管理跨越不同服务器、存储和网络的云基础设施。这种统一的管理将新的云应用部署时间从数日缩短至数分钟, 同时让客户管理效率提高了近10倍。

与X9300整合消除服务器无序扩展

另外, 为简化客户在复杂的IT环境中对文件和块两种数据类型的管理, 惠普将3PAR公用存储与基于IBRIX网络连接存储 (NAS) 技术的HP X9300Network Storage Systems进行了整合。

整合后的产品通过按需自动将数据配置到适合的存储层, 简化了云应用部署。这样一来, 客户能够轻松管理迅猛增长的非结构化文件数据, 如多媒体内容。单一的惠普3PAR公用存储可以作为云计算应用、基于大文件的工作负载和企业数据库应用的整合平台。

据悉, 基于IBRIX横向扩展文件服务技术的HP X9300 Network Storage Gateway可以将3PAR公用存储系统作为后台数据存储, 还可以进一步简化了客户数据管理。客户可以为基于文件的数据选择一个高性能的、公用的后台存储系统, 并且允许需要访问块级数据 (block-level) 的存储应用共存在同一个存储系统中。

新的整合还为HP X9300 Network Storage System增加了新的功能。例如, 客户能够在支持独立扩展最大化效益的同时整合文件和块存储。因此, 客户能够得到扩展和基于规则的文件分层, 并实现块级别的性能优化、自动精简配置和多租户整合。

篇7:惠普存储和服务器集群解决方案

大规模VOD服务器集群系统中,如何分布视频数据,进行数据调度是影响系统性能的关键因素之一。数据请求强度与分布,影片热门度分布,视频传输会话长度的分布以及数据视频的比特率都将影响到服务器集群的传输特性,进而影响视频放置调度算法的性能。最直观的影响如热门影片分布不均将直接导致部分服务器过载,而其他服务器负载远小于服务能力。

而在VOD服务器系统中以上四个因素通常不是定值。文献[1]指出:视频请求通常在峰值期满足泊松分布;视频热门度满足齐夫分布;在视频传输会话长度的分布方面,通常50%以上的传输会话在10分钟以内结束,75%以上的传输会话在25分钟内结束,仅有小部分传输会话能达到整个视频的总长度。

目前已有的算法通常设置其中一个或多个因素为已知固定值,很少有模型将以上所有因素考虑其中。如文献[2]假设会话时长为定值,且算法最佳适用于数据视频比特率相同的情况,对比特率不同的情况仅提出了一种启发式的算法;文献[3]中假设文件码率,会话长度都相同。

为此,本文将数据请求强度与分布、影片热门度分布、视频传输会话长度分布以及数据视频的比特率等因素考虑其中,提出了一种基于Erlang-B公式的副本放置算法,较好地解决了实际情况下各因素可变时视频文件放置问题。算法在降低视频请求被拒率的基础上,兼顾了均衡的用户满意度。

1问题描述

考虑由N台同构服务器构成的集群,记为S={S1,S2,…,SN};D表示服务器的带宽能力;服务器需要存储M部影片,影片比特率记为bi(i=1,2,…,M)。此外,我们做以下假设:

1) 影片热门度已知,记为pi, (i=1,2,…,M)。

2) 如文献[4]所述,假设用户请求满足泊松分布。参数λ已知,假设对不同视频文件的请求相互独立。

3) 假设请求会话长度可变。且各视频文件的平均请求会话长度为相等的已知量,记为h

4) 由于磁盘限制,假设一台服务器对同一个副本能提供的最大并发连接数为L

记视频i的请求数为Qi,被拒数为Ai,被拒率为Reji(i=1,2,…,M),则副本放置算法的优化目标:

1) 降低视频平均请求被拒率iΜAiiΜQi(i=1,2,Μ)

2) 均衡各视频的被拒率,即降低max{Reji-i=1ΜRejiΜ}(i=1,2,Μ)的值。

注意到当各视频被拒率均衡时,RejiRejs(i,s=1,2,…,M),即AiQiAsQs(i,s=1,2,Μ),则优化目标1可以改写为:降低i=1ΜRejiΜ的值。

2算法描述与分析

在算法描述中,我们重新定义基础视频码率Bbase,且假设各视频文件的码率为Bbase的整数倍,即bi=Zi×Bbase(Zi为正整数)。重新定义服务器的出口带宽B为支持比特率为Bbase的视频时,能提供的最大并发连接数,即B=D/Bbase。下文中,我们将用bi表示视频文件i的码率/ Bbase的值。

由于请求满足泊松分布,则可证明对各个视频文件的请求也满足泊松分布,证明如下:

设总的请求满足参数为λ的泊松分布,则时刻tk个请求的概率为:

Ρ(X=k)=e-λλkk!

对任意视频文件i,由其热门度为pi,且各视频文件请求相互独立可得时刻tk个请求的概率为:

Ρ(Y=k)=Ρ(X=kpi)=e-λλkpikpi!

满足泊松分布条件。

由于服务器支持Bbase比特率的视频时可提供的连接数可以视为资源数,各视频文件请求满足泊松分布,满足Erlang-B公式的条件。又对视频i,请求到达率λi=λ×pi,平均会话长度hi=h,假设服务器j为视频i提供的连接数为mij,又一个该视频会话连接需要服务器提供bi的资源,则视频i使用的实际资源数mi=∑i=1Νbimij

明显地,算法需要保证以下约束:

各视频所需带宽总和需小于服务器集群所提供的带宽总和,即:

约束1:∑i=1Μmi<NB

且满足并发连接数限制:

约束2:mij<L (∀i∈1,2,…,M,∀j∈1,2…,N)

约束3:每个服务器上同一个视频文件只能有一个副本。

2.1副本算法

我们采用渐进法求优化目标1的近似最优值。算法思想如下:

选取被拒率的初始可能值rej。有多种方法可以选取被拒率初始值。我们采取计算视频最大可能被拒率的方法。最大可能被拒率算法基于当所有视频被分配均等的连接资源时,最大的被拒率必然大于优化后被拒率的思想。选取bi× pi最小的视频i,取平均时长为h,连接资源数m=NB/Mbi,请求率=λ×pi。将h,m代入Erlang-B求得平均被拒率估计值rej

最大的被拒率可由Erlang-B公式的变形体计算:

{1B(E,y)=1+yE1B(E,y-1)(y>0)1B(E,Ο)=1

其中,E为请求到达率×平均会话长度,y为资源数,B(E,y)是当资源数为y时的被拒率。

即:

{1B(E,y)=1+ΝBhΜbiλpi1B(E,y-1)(y>0)1B(E,0)=1

可见当连接数相同时,bi×pi值较大的视频被拒率较大。

根据初始被拒率估算值进行分配。对每一个视频文件i:

可知该文件的平均时长=h,请求率= λpi,根据Erlang-B公式,求出在被拒率=rej的情况下,所需要的连接数m。由于一个该视频会话连接需要服务器提供bi的带宽,于是需要服务器提供的实际资源数为m×bi。从可用资源中分配m×bi资源给该视频文件,即mi=m×bi。这样在分配时保证了各视频的被拒率保持均衡。

由于采用的是最差情况下的被拒率估算值,故分配结束后服务器可用资源数>0。

采用贪心算法分配剩余可用资源,调整被拒率,求得各视频资源值。若剩余可用资源>0重复如下操作:

寻找视频j,j满足:

rejj=min{rejs} (s=1,2…,M)

若存在多个可选j值,则由上文Erlang-B公式的变形体可得对任意视频文件a, b,若当前被拒率相同,当增加一个连接资源时,y/E值较大的文件被拒率下降也较快。在该算法中,E= h×λ×pi,y=mi/bi,因此在多个可选j值中取mλbjpjh值最大的文件t,从可用资源中分配资源bt给文件t

算法结束。可以看出,算法保持了各视频被拒率均衡,在满足约束1的前提下实现了优化目标。

2.2放置算法

放置算法的主要目标是将副本算法中的各视频连接资源数映射为服务器上的副本,放置算法需满足约束1和约束2。

放置算法描述如下:

1) 将视频文件按热门度降序排列。对服务器1~N,记剩余资源数ri=B (i=1,2,…,N)。

2) 计算各视频副本数copyi:

copyi=min{miLbi,Ν}(i=1,2,Μ)

3) 从第一个视频开始,当服务器集群有可用剩余资源的条件下,按以下方法依次将视频放到服务器上:

i为视频序号。取未放置i的服务器中当前剩余资源数最大的服务器j,记服务器j放置视频i,并重置j的剩余资源rj=rj-L×bi。重复此操作直至copyi个副本都放置到服务器上。此操作保证了约束1和约束2。

4) 算法结束。

放置算法的编程实现方法如下:

3性能评价

对副本存储调度算法的评价指标主要有两个:平均被拒率和被拒率不平衡度。

在仿真试验中,服务器数为N=8,视频总数M=50,每部视频长度为90分钟,基础比特率为2Mbs,各视频的比特率/基础比特率为[2,4]之间的整数,本试验中,比例为2,3,4的视频分别为25个,15个和10个。每台服务器出口带宽为320Mbs,即B=160,每台服务器对同一个副本能提供的最大并发连接数为8个。

仿真试验中,会话长度满足:50%会话在10分钟以内结束,会话长度为[0,10)上的随机变量。25%会话在10~25分钟内结束,会话长度为[10,25)上的随机变量。25%会话在25~90分钟内结束话长度为[25,90)上的随机变量。

和文献[2,4]类似,假设影片流行度服从参数为θ的齐夫分布,0.271≤θ≤1即:

pi=i-θj=1Μj-θ(i=1,2,Μ)

用户请求到达满足泊松分布。由视频平均比特率为2.7,平均会话时长为21.61分钟,故服务器集群可支持峰值达率λ约为23个请求/分钟。仿真试验中,取θ=0.75。

由于峰值时间通常为晚上8点至10点两个小时[1],在非峰值时间,用户请求并不满足泊松分布条件,故仿真试验时长设定为120分钟,实验结果取同样条件运行1000次的平均值。

仿真试验中,调度算法采用最小负载优先算法:取放置请求的视频副本,当前负载最小且有剩余服务资源的服务器来接收用户请求,若无可用服务器则拒绝该用户请求。

对比试验采取随机放置副本的算法。副本放置算法和随机放置算法都采用先到先服务方式服务用户请求,若有用户请求副本的服务器上无可用带宽或者对在此副本上的并发连接数超过最大并发限制时,拒绝用户请求。

图1比较了两种算法下用户请求被拒数。由图1可以看出,在请求密集度达到峰值的情况下,本算法的被拒数也只有随机算法的1/3。因此算法能较好地降低用户请求被拒率,提高服务器的性能。

图2比较了两种算法下各视频被拒率的均衡度。从图2可以看出,整体而言较随机算法,该算法的视频被拒率均衡度明显较高。视频1,2,3有较高的被拒率是由于服务器集群能力的限制,所有的服务器上都已经放置了这些视频的副本,所以已无法通过副本算法来进一步降低这些视频的被拒率。而在视频8,20,34等处出现跃点,是由于视频副本数计算出现临界值,此时,副本算法中得到的连接数接近L的整数倍。

4结语

本文基于现实世界中VOD视频点播的特性,采用Erlang-B公式,提出了一种VOD服务器集群上的副本存储调度策略,将视频请求分布、视频热门度、视频比特率以及传输会话长度等影响副本算法性能的多个可变因素考虑其中。采用副本生成和放置调度两阶段算法。副本生成算法利用Erlang-B公式的特性得到达到最小被拒率和均衡用户满意度时所需要的连接资源数,放置调度算法将连接资源数映射为服务器的存储副本,并保持服务器的负载能力。该算法在我们的一个局域网内VOD服务器项目(CDOD)中得到应用,达到了比较好的效果。仿真实验也表明,该算法在保证了较优的用户被拒率的基础上,均衡了各视频的用户满意度,达到了优化VOD服务器集群服务能力的目的。

摘要:VOD服务器集群中,副本放置及调度策略是影响服务质量的关键因素之一。综合考虑视频的热度、会话长度以及视频码率等变量,提出了一种基于Erlang-B公式的副本放置以及调度算法。仿真试验表明,该算法降低了请求拒绝率,同时也使请求拒绝率在不同视频之间分布得更加均衡,可使服务器集群提供较优的服务质量。

关键词:副本放置,视频点播,服务器集群

参考文献

[1]Hongliang Y,Dongdong Z,Ben Y Z,et al.Understanding user behaviorin large-scale video-on-demand systems[C]//Proceedings of the 2006EuroSys Conference,Leuven,Belgium,April 2006.

[2]Xiaobo Z,Chengzhong X.Optimal video replication and placement on acluster of video-on-demand servers[C]//Proceedings of the 2002 In-ternational Conference on Parallel Processing,in Vancouver,British Co-lumbia,Canada,August 18-21,2000.

[3]赵兵选,卫星,樊少华,等.基于累积点播概率的负载均衡算法研究[J].电子技术,2008,45(9):62-65.

上一篇:牛津小学英语六年级教案下一篇:心理学自我成长分析报告