服务器虚拟

2024-08-30

服务器虚拟(精选十篇)

服务器虚拟 篇1

相信大多数信息系统管理员都遇到过类似问题:服务器硬件已淘汰或者待报损, 想购买新的服务器, 但是一想到要重新安装打过许多补丁的系统, 甚至重新搭建做过很多复杂优化的应用就头疼。

为了解决这个问题, IT业内就推出了虚拟服务器的概念。其实这也不是全新的理念, 在微软、IBM等大厂的软件系统里 (比如:Windows Server系列等) , 很早就开始有了类似虚拟服务器的技术应用。而JAVA的虚拟机, 也一定程度的展示了虚拟化的跨软硬件平台、易移植等特性。但是纯粹面向虚拟服务器的软件技术是近几年才开始兴起, VMware就是其中的代表厂商。

通过基于某个操作系统平台 (比如:Linux) 的虚拟服务器管理软件 (比如:VMware) , 将服务器的硬件资源进行统一调配, 然后在虚拟服务器管理软件的管理下, 完全虚拟出若干台服务器的硬件环境, 然后在这个硬件环境上再安装应用所需的操作系统和应用系统, 就完成了服务器的虚拟化。最终, 机房里一台台的服务器就转化成为虚拟服务器软件里面的一个个文件。与之前相比, 产生了以下变化:

1服务器的更新发生了翻天覆地的变化

原先与硬件紧密相关的服务器与硬件平台基本无关了, 在支持虚拟服务器管理软件的硬件环境之间可以随意迁移, 因为一台虚拟服务器现在只是一个文件。当硬件环境淘汰或报损以后, 只要将该文件复制出去, 然后启动虚拟服务器, 整个迁移过程就结束了。

2对操作系统的备份也发生了巨大的变化

不再购买同样硬件环境的机器作为备机了。只要将整个虚拟服务器作为一个文件备份出去, 然后在出现硬件故障的时候, 将其复制到机房里另一台支持虚拟服务器管理软件的机器上启动虚拟服务器, 就随时可以恢复应用, 硬件的备份转变为文件的备份。

3服务器资源的配置也得到了颠覆性的变革。

以前服务器的资源只能被安装在该机器上的若干个应用共享。现在通过虚拟服务器管理软件, 可以将硬件资源在不同的虚拟服务器之间共享、合理调配, 实现了资源的有效利用与合理化分配。

4服务器管理的方式也发生了重大进步

以前服务器的管理要通过各种不同的远程管理工具进行逐一管理, 服务器资源的使用情况也需通过不同的工具逐一分析。安装了虚拟服务器管理软件后, 它提供了统一的管理界面, 从资源使用情况分析到桌面控制, 都有了简化和优化。可以理解为类似用数据库管理软件管理若干个数据库的方式在管理若干个服务器。

什么是虚拟服务器 篇2

什么是虚拟服务器

使用虚拟化管理服务器系统 篇3

机房服务器现状

在过去和现在,学校机房服务器的建设和管理是一件比较繁杂的工作。一方面,各院系会根据自己的需要申请、架设服务器,而这些服务器通常仅针对某个教学课程提供单一的服务,造成资源浪费。另一方面,校园核心服务器又要求提供繁多的应用,如WWW服务、邮件服务、网上办公等,这些应用在使用高峰时会使得服务器响应缓慢甚至瘫痪、死机。另外,有些文件服务器提供上传下载功能,也会为学生开放一部分存储空间让学生提交作业等,有些不安全的文件可能会导致服务器中毒或导致后门入侵等。

理想的校园服务器应合理部署,整合各硬件平台的资源,提高服务器的响应速度,为学校提供更好的服务平台。

机房服务器建设目标

1、服务稳定。在任何时刻,服务器都应能够正常响应客户的请求,不至于被大量的访问拖垮甚至崩溃。

2、资源整合。在单服务器模式下,每台服务器都需要购买相应的硬件设备和软件许可,但只提供一个或很少几个服务应用,大大浪费了CPU、内存和存储资源。为节约和保护投资,应将这些单一服务器的资源整合起来,在保证性能的前提下提供更多的服务。

3、实现安全。对于传统的服务器,系统管理员不仅需要关注操作系统和应用程序的安全,还要小心配置各项服务,检测各种漏洞和程序错误,合理分配各项权限,监视可疑的进程和文件,以免成为黑客的战利品。

4、便于管理。对于大型中心机房来说,如果采用传统的单服务器模式,管理员将面对不同架构、不同系统、不同配置、不同应用的各类服务器,还要解决由众多服务器所带来的空间占用、电力供應、散热的问题。此外,管理员还必须考虑如何实现这些服务器的冗余、升级和迁移以及异构设备之间的协同工作等。

虚拟化技术

虚拟化把用户与其所使用的资源剥离和抽象出来,用户所使用的资源包括硬件,如磁盘、网络、CPU等,也包括软件资源如系统和各类服务,用户和资源之间通过标准的接口实现输入输出。

虚拟化实现了对计算机及网络基础设施的简化和优化以及集中管理,虚拟环境的变化对用户是透明的,可以动态的为用户提供所需要的资源。虚拟化技术使得用户与资源之间实现分离,用户所使用的资源不受地理位置或底层环境的限制,用户也可以根据自己的需要定制资源,为用户提供了一个虚拟的、逻辑的应用平台。

硬件的飞速发展使得虚拟化的部署成为可能,我们不仅可以在一台高性能服务器上创建多个虚拟机,实现多个单一服务器的功能,而且可以将多台服务器创建为集群,通过虚拟化服务器集群实现高可用性和负载均衡,在某一服务器出现故障时仍能正常工作。

相比传统的单一服务器方式,采用虚拟化技术具有以下几个方面的优势。

1、减少服务器数量,降低采购成本。

2、便于维护、管理、更新和灾难恢复。

3、提高服务器使用效率,实现高可用性。

机房服务器虚拟化系统及解决方案

机房服务器虚拟化系统需包括硬件资源、虚拟主机、存储系统和管理平台几个组成部分。

硬件资源是通过互连网络连接起来的物理设备,属于虚拟化系统的底层。

虚拟主机是在安装、运行在硬件平台上的虚拟系统,是整个虚拟化系统的核心。虚拟主机管理整个硬件资源,根据不同的应用将硬件平台的CPU、内存、存储等资源动态分配给不同的虚拟服务器,在虚拟服务器中再安装Windows、Linux等操作系统并配置所需服务。

存储系统负责存储虚拟主机镜像文件、快照和各类用户文件,根据存储文件的对象不同可使用本地存储或共享存储。本地存储的结构简单,前期投资少,但性能和扩展性较差;共享存储结构相对复杂但功能明确,前期投资大,但性能优异且扩展性强。

管理平台对虚拟主机和存储系统实现统一管理,可实现资源动态分配、负载均衡,还可以对设备实行监测,进行虚拟主机的迁移,以保证系统的可靠性和可用性。

目前,提供服务器虚拟化解决方案的厂家有很多,如国外的VMware、Microsoft、Citrix、IBM、Oracle和RedHat及国内的联想和神州数码等,也有很多免费的平台和软件供用户选择。

虚拟化的误区

虽然说现在实施虚拟化解决方案已成为解决中心机房诸多问题的一种潮流,但用户也不能盲目跟进,仍需仔细考虑以下几个方面。

1、是否真的有效?

多数虚拟化方案是针对大型企业如电信、银行等,对于中小型企业还需要根据各自的应用进行分析,进行总体规划。

2、是否真的便于管理?

通过整合,虚拟化可以提高服务器系统的可靠性,但同时也增加了系统的复杂性,对系统管理人员的技术能力提出了新的要求。同时,在虚拟化方案实施后,系统管理人员仍需不断对系统进行调优的工作。

3、是否真的节约投资?

虚拟化可以提高硬件的使用效率,进而减少服务器的数量和软件授权,但要求强壮的网络系统和集中化共享存储,这可能使得总的投资不减反增。

(袁黎晖单位:江西省方晖信息技术有限公司 ;张俊单位:江西农业大学南昌商学院)

云虚拟服务器的应用 篇4

1. 云虚拟服务器构建与测试

1.1 云虚拟服务器搭建

在整个IT产业中, 虚拟化已经成为关键词, 同样也是云计算的基石。Hyper-V是微软的一款虚拟化产品, 是微软第一个采用类似Vmware和Citrix开源Xen一样的基于hypervisor的技术, 对云计算有着至关重要的作用。本文的重点是在系统中心虚拟机管理 (System Center Virtual Machine Manager) 简称SCVMM2008 R2 SP1的管理下基于Windows Server 2008 R2 SP1实现的虚拟化主机。

(1) 实验环境

Windows Server 2008 R2, Hyper-V, WebGoat, WebScarab

(2) 服务器搭建

将Windows Server 2008 R2安全安装, 更改用户名和登陆密码, 并添加Hyper-V功能, 设置虚拟网络与其他计算机进行通信的网卡, 创建模板虚拟机, 在虚拟机上安装操作系统和Hyper-v集成服务[1], 完成虚拟服务器配置。

从结构上讲, Hyper-V能够实现的虚拟的网络包括:专用虚拟网络、内部虚拟网络和外部虚拟网络。

(1) 专用虚拟网络

在Hyper-V中, 虚拟机选选择专用虚拟网络就限制访问的范围, 只能在虚拟机之间互问。

(2) 内部虚拟网络

内部虚拟网络能够连接运行在一台服务器上的两个或多个虚拟机, 而且虚拟机之间的网络流量不会经过物理网络基础设施。即虚拟机之间, 虚拟机与主机之间可以相互访问, 但不能与其他计算机相互访问[2]。

(3) 外部虚拟网络

外部网络虚拟化应用于适当的网络中, 影响了物理网络中的诸多元素, 比如布线、网络适配器、交换机、路由器等等。外部网络虚拟化将多个物理网络整合为更大的逻辑网络, 或者将单个物理网络划分为多个逻辑网络, 虚拟机可以对英特网访问, 也能与主机同层的计算相互访问[3]。就是指在Hyper-V中虚拟机使用外部虚拟网络就等同于一台联网的计算机。

1.2 安全性测试

利用WebGoat在普通服务器和云虚拟服务器中分别对SQL攻击和SPath攻击进行测试[4], 比较其安全性。

为了将WebScarab作为代理使用, 需要配置浏览器, WebScarab默认时使用localhost的8008端口作为其代理。利用WebScarab截获到相关数据包。

(1) 在普通服务器中对SQL数字注入测试, 将station设置为“101 or 1=1”WebGoat显示攻击成功:

在云虚拟服务器下做相同测试, 显示攻击失败

Sorry.You have not completed this lesson.

(2) 在普通服务器中对SQL字符串注入测试[5], 将lastname设置为“'or 1=1--”, WebGoat显示攻击成功:

在云虚拟服务器下做相同测试, 显示攻击失败Sorry.You have not completed string SQL injection.

(3) 在普通服务器中对XPAHT注入测试, 设置username:Mike'or 1=1 or'a'='a;password:987654, WebGoat显示攻击成功:

在云虚拟服务器下做相同测试, 显示攻击失败

Sorry.You have not completed this lesson.

通过对普通服务器和云虚拟服务器多次攻击测试, 如果证明, 在防御SQL攻击XPATH攻击等方面[6], 云虚拟服务器的安全性远比普通服务器要强!

2. 云虚拟服务器与普通服务器性能对比

在硬件配置层次相近的情况下, 我们分别对一云虚拟服务器 (控制器+云端) 和一台IBM服务器的运算能力和硬盘读取速度进行测评, 比较二者的优劣。

2.1 测试软件:

Cinebench R11.5, WinRAR, Fritz Chess, Sciencemark, HDTune, superpimod

2.2 测试数据对比

(1) 浮点运算能力测试-Super PI

Super PI是利用CPU的浮点运算能力来计算出π (圆周率) [7], 是一款专用于检测CPU稳定性的软件, 软件通过计算圆周率让CPU高负荷运作, 以达到考验CPU计算能力稳定性的作用。

IBM服务器用时20.529秒计算出圆周率, 云虚拟服务器用时13.484秒计算出圆周率。

(2) 多线程性能测试-Cinebench R11.5

CINEBENCH是业界公认的基准测试软件[8], 可以测试CPU和显卡的性能。其中单颗核心和多颗核心的测试是单独计算得分的, 除此之外, 其还提供了OpenGL的测试。

云虚拟服务器2.98pts, IBM服务器2.48pts, 数据越大代表CPU运行性能越好。

(3) 多线程压缩性能测试——WinRAR 3.93

WinRAR是目前流行的压缩工具, 界面友好, 使用方便, 在压缩率和速度方面都有很好的表现。它自带了压缩测试的Benchmark工具, 测试起来也非常方便。

云虚拟服务器下压缩速度1748KB/S, IBM服务器下压缩速度1403KB/S, 数值越大压缩速度越快。

(4) 多线程计算能力测试——Fritz Chess

Fritz Chess Benchmark[9]是一款国际象棋测试软件, 是目前在个人计算机方面最好的步法计算和预测软件, 同时也可以让我们对等的看到目前我们所使用的个人计算机到底达到了一个什么样子的水平。同时该软件还给出了一个基准参数, 就是在P3 1.0G处理器下, 其可以每秒运算48万步。

云虚拟服务器数据对比倍数1649, 每秒7915千步, IBM服务器对比倍数1221, 每秒5862千步, 数据越大代表计算能力越好。

(5) 科学计算性能测试——Sciencemark

ScienceMark 2.0[10]是一款通过运行一些科学方程式来测试系统性能的工具。我们利用Sciencemark的总分来衡量平台整体的传输和运算效能。

云虚拟服务器总得分2316.19, IBM服务器总得分1259.10, 数据越大代表传输和运算效能越好。

(6) 硬盘读取速度测试-HDTune

云虚拟服务器硬盘数据读取速度509.9MB/S, IBM服务器硬盘数据读取速度95.5MB/S, 数据越大速度越快[11]。

通过以上的测试对比, 可以明显地看到, 在云环境下建立的虚拟服务器性能远远地高于一套高配置的独立服务器。

3. 提高云虚拟服务器的安全性

虚拟化是指计算元件在虚拟的基础上而不是真实的基础上运行, 是一个为了简化管理, 优化资源的解决方案, 能够为软件使者用户——软件提供商, 客户端软件——主机服务器, 两两之间更好的结合, 保证频繁的交流需求。终端虚拟化由于其带来的维护费用的大幅降低而受到追捧——如能降低占用空间, 降低购买软硬件设备的成本, 节省能源和更低的维护成本[12]。随着计算机技术的发展, 虚拟机能够实现多用资源的共享, 应用越来越广泛。

一般情况下虚拟的隔绝技术是能够保证其内部网络的安全性, 因为这时使用虚拟机的客户的相关信息是可以控制的, 用户身份的真实性是可以进行核实的。可当虚拟机连接到网络上, 其用户的信息就不在能够掌控的范围了, 风险性大大增加。这就要求使用裸机虚拟机监控器, 其监控系统能够是想对不可控客户进行控制, 从而减少黑客对系统攻击的可能性。虽然使用虚拟机监控系统对云安全进行控制, 但是其风险仍然没有达到目标的最小风险。黑客迟早有一天会对虚拟机进行攻击。超出了一定的范围界限虚拟机监控器就会失效, 这是由于网络资源的共享性导致的。这就要求提供商要不断提高自己的云环境安全性, 为客户端的软件操作提供的安全保证。云安全的策略构想是:使用者越多, 每个使用者就越安全, 因为如此庞大的用户群, 足以覆盖互联网的每个角落, 只要某个网站被挂马或某个新木马病毒出现, 就会立刻被截获。

3.1 潜在的风险[13]

在关于云风险问题上, 全球领先的互联网设备供应商, 向客户提供端到端的网络方案, 使客户能够建立起其自己的统一信息基础设施或者与其他网络相连的思科系统公司的安全技术顾问赫夫认为, 应该将云服务安全性在运营环境分为三个层来分析。第一级, 基础设施服务级安全性, 包括硬件、存储软件、服务器等的安全性。第二级, 云服务的安全性, 即其所提供的相关软件的安全性。第三级, 操作系统的安全性, 这还包括应用关键的安全性, 这都是基于前两个基3.2础设施的虚拟服务。

赫夫还认为, 用户能够保证的安全是只是整个系统中安全性的一小部分, 但提供商的运营环境同样对其构成威胁, 而用户却只能面临这种风险。通常境况下提供商的运营环境的安全性是很难得到保证, 因为系统中仍然会有漏洞。

虚拟机的运行环境同样面临各种威胁, 这就需要对其实施保护。这些威胁主要来自于以下几个方面, (1) 客户端自我攻击; (2) 客户端——客户端攻击; (3) 客户端——主机服务器攻击; (4) 外部环境——客户端攻击; (5) 外部环境——阻击服务器;这久要求对每一个可能存在的漏洞进行修复。

赫夫对虚拟机的攻击方式进行可归纳总结, 对虚拟机攻击的主要方式是通过木马程序, 该木马程序会破坏云服务的管理程序。这种攻击方式还有恶意插件和无敌攻击。通常情况下, 服务器的运行环境和硬件设施是木马程序、恶意插件等攻击的主要目标, 因为其存在许多的漏洞, 在与其他设备对接时都有最可能受到攻击。

在关于虚拟机可能存在的风险问题上, 赫夫认为黑客往往都是通过系统中的漏洞或者薄弱环节对系统进行攻击, 这就对虚拟机的构成威胁, 这是很难预料到的, 我们将之定义为潜在风险。当这种造成威胁的攻击是通过对用户进入对系统进行攻击, 要对其进行分辨是相当有难度。

3.3 技术和服务保护

通常情况上, 无论是对于提供商的所有服务器的保护还是对云计算虚拟服务器的保护, 其保护的措施和具体的办法是相似的。

(1) 对服务器的操作, 同时也应用于对虚拟机相同的操作, 这就要求在使用过程中保持高度的警觉性。

(2) 云托管软件能够实现对其运行过程的错误或不正常状态进行监控检测。因为完善的监控系统是安全性的重要保证。

(3) 很多情况下, 即使用户在尽量采取措施, 降低风险, 但仍然不能完全消除威胁。即云安全不在用户的控制范围之下。这就需要寻找介于提供商和用户之间的第三方来对其云计算安全性提供保证。在这个过程中用户事先了解相关的协议和规章制度, 并严格遵守相关的规定。

软件提供商通过一些重要手段, 防止黑客对其服务器以及在其上正在运行的虚拟机, 甚至是真个管理应用程序的攻击, 从而是虚拟机的安全性得到极大的提高。可客户端的安全性是不能够内忽视的。

国外一些著名的软件工程师在关于客户端云计算安全性上提出了几点重要的建议:KnowThreat的创始人, 同时还兼任首席咨询室的泰勒·班克斯建议用户对重要的数据管理进行本地化处理, 并对要存储的数据使用加密技术处理, 此外还需要对云托管的相关技术建立一个安全的环境。赫夫同样也认为用户端的安全性对整个系统的安全性至关重要, 用户需要采取软件重新配置等措施要减少可能出现的安全威胁。Solera Networks公司的副总裁Pete Schlampp建议, 通过“论坛”的形势, 来减低各种各样的注入攻击。论坛是一个供所有用户和供应商发布各种最新攻击形式和防范方法的一个平台, 可提高用户的警惕性, 从而提前做好防范工作。但是这样一个平台是需要软件供应商来建立的。

摘要:为了全面提高虚拟服务器安全性能, 本文将云计算与WEB技术相结合, 构建一个云虚拟服务器平台, 并与普通服务器作性能对比实验, 验证其更高的安全性。

关键词:云虚拟服务器,网络安全性,Hyper-V

参考文献

[1]曾宇.云计算-助推产业大发展.人民日报, 2011-03

[2]朱近之.智慧的云计算-物联网发展的基石.电脑期刊, 2011-01

[3]张建勋.云计算研究进展综述.计算机科学技术学院, 2010-02-07

[4]Lee Wang.“The Cumulus Project Build a Scientific Cloud for aData Center”, 2010-08

[5]吴志明.云安全之云计算的安全风险、模型和策略.程序员杂志, 2010-07

[6]孙松儿.云计算环境下的安全问题分析和建设思路探讨.信息研究院, 2011-03

[7]钟伟彬, 周梁月, 潘军彪, 等.云计算终端的现状和发展趋势[J].电信科学, 2010, (3) :22-26.

[8]吴吉义, 平玲娣, 潘雪增, 等.云计算:从概念到平台[J].电信科学, 2009, (12) :23-30.

[9]陈康, 郑纬民.云计算:系统实例与研究现状[J].软件学报, 2009, 20 (5) :1337-1348.

[10]陈全, 邓倩妮.云计算及其关键技术[J].计算机应用, 2009, 29 (9) :2562-2567.

服务器虚拟 篇5

Linux Virtual Server,简称LVS。是由中国一个Linux程序员发起的开发项目计划,其实现目标是创建一个具有良好的扩展性、高可靠性、高性能和高可用性的,基于Linux系统的服务器集群。

1.LVS系统结构与特点

使用LVS架设的服务器集群系统从体系结构上看是透明的,最终用户只感觉到一个虚拟服务器.物理服务器之间可以通过高速的LAN或分布在各地的WAN相连。最前端是负载均衡器,它负责将各种服务请求分发给后面的物理服务器,让整个集群表现得象一个服务于同一IP地址的虚拟服务器。

LVS集群系统具有良好的可扩展性和高可用性。

可扩展性是指,LVS集群建立后,可以很容易地根据实际的需要增加或减少物理服务器。而高可用性是指当检测到服务器节点或服务进程出错、失效时,集群系统能够自动进行适当的重新调整系统。

2.LVS是如何工作的

Linux Virtual Server的主要是在负载均衡器上实现的,负载均衡器是一台加了LVS Patch的2.2.x版内核的Linux系统。LVS Patch可以通过重新编译内核的方法加入内核,也可以当作一个动态的模块插入现在的内核中。

负载均衡器可以运行在以下三种模式下中的一种或几种: 1)Virtual Server via NAT(VS-NAT):用地址翻译实现虚拟服务器;2)Virtual Server via IP Tunneling (VS-TUN):用IP隧道技术实现虚拟服务器;3)Virtual Server via Direct Routing(VS-DR):用直接路由技术实现虚拟服务器。

另外,还需要根据LVS应用对物理服务器进行恰当的配置。

以下将分别讲述一下三种模式的工作原理和优缺点。

2.1.Virtual server via NAT(VS-NAT)

Virtual Server via NAT方法的最大优点是集群中的物理服务器可以使用任何支持TCP/IP操作系统,物理服务器可以分配Internet的保留私有地址,只有负载均衡器需要一个合法的IP地址。

这种实现方法的最大的缺点是扩展性有限。当服务器节点(普通PC服务器)数据增长到20个或更多时,负载均衡器将成为整个系统的瓶颈,因为所有的请求包和应答包都需要经过负载均衡器再生。假使TCP包的平均长度是536字节的话,平均包再生延迟时间大约为60us(在Pentium处理器上计算的,采用更快的处理器将使得这个延迟时间变短),负载均衡器的最大容许能力为8.93M/s,假定每台物理服务器的平台容许能力为400K/s来计算,负责均衡器能为22台物理服务器计算。

Virtual Server via NAT能够满足许多服务器的服务性能需求。即使是是负载均衡器成为整个系统的瓶颈,如果是这样也有两种方法来解决它。一种是混合处理,另一种是采用Virtual Server via IP tunneling或Virtual Server via direct routing。如果采用混合处理的方法,将需要许多同属单一的RR DNS域。你采用Virtual Server via IP tunneling或Virtual Server via direct routing以获得更好的可扩展性。也可以嵌套使用负载均衡器,在最前端的是VS-Tunneling或VS-Drouting的负载均衡器,然后后面采用VS-NAT的负载均衡器。

2.2.Virtual server via IP tunneling(VS-TUN)

采用VS-NAT方式,请求与应答包都需要经过负载均衡器,那么当服务器节点增长到20个或更多时,这个负载均衡器就可能成为新的瓶颈。我们发现,许多Internet服务(例如WEB服务器)的请求包很短小,而应答包通常很大。

而使用VS-TUN方式的话,负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-TUN方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。

IP tunneling(IP隧道)能够用于架构一个高性能的virtual server,非常适合构建virtual proxy server,因为当代理服务器收到了请求,能够让最终用户直接与服务器联系。

但是,这种方式需要所有的服务器支持“IP Tunneling”(IP Encapsulation)协议,我仅在Linux系统上实现了这个,如果你能让其它操作系统支持,还在探索之中。

2.3.Virtual Server via Direct Routing(VS-DR)

就象VS-TUN一下,在VS-DR方式下,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。这种方式能够大大提高Virtual Server的可扩展性。与VS-TUN相比,VS-DR这种实现方式不需要隧道结构,但它要求负载均衡器的网卡必须与物理网卡在一个物理段上。

而且VS-DR模式,可以使用大多数操作系统做为物理服务器,其中包括:Linux 2.0.36、2.2.9、2.2.10、2.2.12;Solaris 2.5.1、2.6、2.7;FreeBSD 3.1、3.2、3.3;NT4.0无需打补丁;IRIX 6.5;HPUX11等

3.安装配置LVS

LVS的安装配置主要可以分成以下三个步骤:

1) 下载LVS软件;

2) 安装、配置负载均衡器;

3) 安装、配置物理服务器;

3.1. 安装前的准备

1).下载LVS软件:

大家可以到LVS的主页(www.linuxvirtualserver.org),选择“Software”链接,选取最新版的补丁包(tar包)下载。这个包里包含了内核补丁和源程序。

2).安装的指导思想

如果你选用了VS-NAT模式的话,则可以使用所有支持TCP/IP协议的操作系统构建的机器作物理服务器,并且无须做任何修改。

如果你选用了VS-TUN模式的话,则选择Linux作物理服务器的操作系统,并根据后面的介绍做相应的设置。

如果你选用了VS-DR模式的话,则可以选择大多数操作系统(如上节所述)作物理服务器,并根据后面的介绍做相应的设置。

3).各种操作系统作物理服务器的要点详解

a)Linux 2.0.36

这种操作系统无需做任何修改,就可以运行在VS-NAT、VS-Tun、VS-DR三种模式下。

b)Linux 2.2.x

无需任何修改就可运行VS-NAT模式。而使用VS-DR和VS-Tun两种模式可能会引起ARP问题。这种情况

就必须:¨ 为2.2.x内核打补丁

・ Stephen WillIams的补丁包:

你可以在www.linuxvirtualserver.org/sdw_fullarpfix.patch获取,它的原理十分简单:让物理服务器不响应对虚拟IP的ARP请求。

・ Julian Anastasov的补丁包:

你可以在www.linuxvirtualserver.org/arp_invisible-2213-2.diff处获取,然后用以下方法使其生效:

echo 1 > /proc/sys/net/ipv4/conf//arp_invisible

¨ 新添一块网卡承载虚拟IP地址:

你可以选择一块ISA网卡或廉价的PCI网卡来用于这个功能。你可以将这个接口的ARP功能关闭。

¨ 将物理服务器放置于与虚拟IP地址不同的网络上,并且确认客户端无法直接路由到物理服务器所在网段。这种方法需要在负载均衡器上有两块网卡象防火墙一样工作。

¨ 在客户端或路由器将虚拟IP地址与负载均衡器的物理MAC地址绑定。

¨ 使用IPCHINA重写每一个进入的包,将其从lo接口送入。

c)其它操作系统

如果是VS-NAT的话,无需修改。如果是VS-DR的话,需要采取一些相应的配置方法设置物理服务器的IP地址,使其拥有LVS的虚拟IP地址。用其它操作系统的话不能使用VS-Tun方法。

4).准备硬件环境

构建服务器集群系统,至少需要3台机器,1台用于负载均衡器,2台用于物理服务器。少于这个数字的话就没有意义了。

负载均衡器:运行在打了补丁的2.2.x核心Linux系统。

物理服务器:

VS-NAT:任何机器、任何操作系统,运行Internet网络服务,如 HTTP、FTP、Telnet、SMTP、NNTP、DNS等。

VS-TUN:任何机器、支持IP隧道的操作系统(迄今为止仅有Linux)

VS-DR:任何机器、大多操作系统。

3.2. 理解LVS的相关术语

1).ipvsadm

ipvsadm是LVS的一个用户界面。在负载均衡器上编译、安装ipvsadm:

ipvsadm sets

2).调度算法

LVS的负载均衡器有以下几种调度规则:

Round-robin,简称rr,weighted Round-robin,简称wrr,每个新的连接被轮流指派到每个物理服务器。

Least-connected,简称lc,weighted Least-connected,简称wlc,每个新的连接被分配到负担最小的服务器。

Persistent client connection,简称pclearcase/“ target=”_blank“ >cc,(持续的客户端连接,内核2.2.10版以后才支持)。所有来自同一个IP的客户端将一直连接到同一个物理服务器。超时时间被设置为360秒。Pcc是为https和cookie服务设置的。在这处调度规则下,第一次连接后,所有以后来自相同客户端的连接(包括来自其它端口)将会发送到相同的物理服务器。但这也会带来一个问题,大约有25%的Internet可能具有相同的IP地址(AOL的

客户是通过位于美国弗吉尼亚洲的一台服务器连入Internet的),这种情况下只要有一个AOL的客户连接到一个物理服务器上,那么所有来自AOL的客户连接将都被连到这一台物理服务器上。这将多么可怕呀!

3).Persistent port connection调度算法

在内核2.2.12版以后,pcc功能已从一个调度算法(你可以选择不同的调度算法:rr、wrr、lc、wlc、pcc)演变成为了一个开关选项(你可以让rr、 wrr、lc、wlc具备pcc的属性)。在设置时,如果你没有选择调度算法时,ipvsadm将默认为wlc算法。

在Persistent port connection(ppc)算法下,连接的指派是基于端口的,例如,来自相同终端的80端口与443端口的请求,将被分配到不同的物理服务器上。

不幸的是,如果你需要在的网站上采用cookies时将出问题,因为http是使用80端口,然而cookies需要使用443端口,这种方法下,很可能会出现cookies不正常的情况。

3.3. 配置实例

1).例一:https only

a)在lvs_dr.conf 文件写入:

SERVICE=t https ppc 192.168.1.1

b)Ipvsadm设置:

IP Virtual Server version 0.9.4 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP ssl.mack.net:https wlc persistent 360

-> di.mack.net:https Route 1 0 0

2).例二:All ports sticky,超时为30分,wrr调度算法

a)在lvs_dr.conf 文件写入:

SERVICE=t 0 wrr ppc -t 1800 192.168.1.1

#ppc persistent connection, timeout 1800 sec

/sbin/ipvsadm -A -t 192.168.1.110:0 -s wrr -p 1800

echo ”adding service 0 to realserver 192.168.1.1 using connection

(接上行) type dr weight 1“

/sbin/ipvsadm -a -t 192.168.1.110:0 -R 192.168.1.1 -g -w 1

b)Ipvsadm设置:

# ipvsadm

IP Virtual Server version 0.9.4 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP ssl.mack.net:https wrr persistent 1800

-> di.mack.net:https Route 1 0 0

3.4. 配置方法

1).准备

用配置脚本*.conf作为输入产生rc.lvs脚本,然后放置在/etc/init.d或/etc/rc.d目录下,

早期版本的配置脚本可以运行在任何机器上。然而现在的配置脚本,针对不同的内核版本是有些不同的。你必须在负载均衡器上运行、检测内核版本。将在负载均衡器上的配置文件和目录,通过nfs输出这个

目录到物理服务器上以供配置需要。 必须先在负载均衡器上运行脚本rc.lvs,然后在物理服务器上运行。

根据你选择的LVS工作模式(VS-NAT、VS-Tun、VS-DR)选择适当的conf文件模板(lvs_nat.conf、

lvs_tun.conf、lvs_dr.conf),然后根据实际情况修改IP地址与服务。在缺省状态下只配置了telnet服务。

telnet服务能够很方便地用于测试:当客户机telnet登录时,根据提示符就可以知道登录到的是哪一台物理

服务器。

你可以编辑conf配置文件来增加其它的服务。在配置文件中提供了集群内部的IP地址建议值

(192.168.1.x/24、10.1.1.x/24)。

在配置文件中,你可以使用名称(如telnet)或端口(如23)来标识服务。使用名称时要注意,须与

/etc/services中匹配。/etc/services文件内容如下所示:

ssh 22/tcp

domain 53/tcp nameserver dns #the string ”dns“ needs to be added here

domain 53/tcp nameserver dns #and here

https 443/tcp

https 443/udp

在多种情况下,一台机器常需要多个IP地址,你可以使用IP别名(内核支持的可选项,一般情况下已含在内核中)来为一块网卡指定多个IP地址。

2).运行配置脚本

$ ./configure.pl lvs_nat.conf

这将产生一个rc.lvs_xxx脚本(例如:rc.lvs_nat、rc.lvs_tun、rc.lvs_dr)以及mon_xxx.cf脚本。(稍后将rc.lvs_xxx放到/etc/rc.d或/etc/init.d中去,将mon_xxx.cf放在/etc/mon目录下)。

3).rc.lvs脚本选项

a). 为负载均衡器与物理服务器增加以太网设备和路由器;

b).使用fping检查连接;

c).运行ipchains(VS-NAT方式);

d).激活ipforward;

e).关闭ICMP重定向功能(VS-DR和VS-Tun方式);

f).增加ipvsadm服务。

4).继续

在物理服务器上运行:

$ . ./rc.lvs_nat 或

$sh rc.lvs_nat

rc.lvs脚本能够自动判断是运行在负载均衡器(tests ?x /sbin/ipvsadm)还是物理服务器上(检查ifconfig)。

检查ipvsadm、ifconfig ?a和netstat ?rn的输出,检查服务/IP地址是否正确。如果不正确的话,请重

新编辑然后再运行一次。

3.5.测试LVS

检查每一台物理服务器上运行的服务,看它们的IP是不是LVS的虚拟IP―VIP(使用netstat ?an)。如果运行rc.lvs_xxx脚本没有出错的话,你从客户端telnet到VIP(在本文中是192.168.1.110),你将会登录到其中的一台物理服务器上,并看到这台物理服务器的登录提示。

在负载均衡器上查看ipvsadm的输出,你会在23端口上看到一个与物理服务器的连接。而在物理服务器上执行:$ netstat -an | grep 23命令查看到相关信息。客户端logout退出后,再次登录虚拟IP时,你将会看到另一台物理服务器的登录提示符。

4 VS-NAT模式

VS-NAT是基于CISCO的负载均衡器:LocalDirector实现的。

4.1.安装VS-NAT

根据下表设置客户端、负载均衡器、物理服务器的IP地址:

表21-2.客户端、负载均衡器、物理服务器的IP地址

机 器 IP地址

客户端 192.168.1.254

负载均衡器的虚拟IP 192.168.1.110(LVS表现的IP)

负载均衡器内部网卡 10.1.1.1

物理服务器1 10.1.1.2

物理服务器2 10.1.1.3

物理服务器3 10.1.1.4

…… ……

物理服务器n 10.1.1.n+1

物理服务器的默认

网关 10.1.1.1

对于VS-NAT方法来说,物理服务器必须位于与客户机、LVS的虚拟IP地址不同的网段上,也就是说在物理服务器上不能直接PING通客户机。

由于负载均衡器有两个IP地址,一个是LVS的虚拟IP地址,另一个IP地址是内部地址--所有物理服务器默认网关。当数据包从物理服务器发送到负载均衡器时,负载均衡器根据地址翻译(NAT)规则将包转发到客户端。(由于负载均衡器是一个地址翻译器,所以ICMP的重定向功能失效,PING无法应用)。可以采用IP别名的方法,也可以使用双网卡方法来实现这个。

配置脚本将会配置IP伪装。以下是在configure.pl脚本中的程序段:

echo ”turning on masquerading “

#setup masquerading

echo ”1“ >/proc/sys/net/ipv4/ip_forward

echo ”installing ipchain rules“

/sbin/ipchains -A forward -j MASQ -s 10.1.1.0/24 -d 0.0.0.0/0

echo ”ipchain rules “

/sbin/ipchains ?L

所有与NAT有关的规则设置都在rc.lvs_nat文件中表现。

4.2.配置VS-NAT

在负载均衡器以及每一台物理服务器上分别执行rc.lvs_xxx脚本程序,使用lvs_nat.conf这个模板来生成rc.lvs_nat配置文件。

VS-NAT将会对端口重新映射,一个来自于80端口的请求,负载均衡器会将其发给物理服务器的8000端口。由于数据包的源地址和目标地址已经被重写,所以无需对重新端口增加额外的开销。很低的重写数据包速度(60us/包)限制了VS-NAT的最大处理能力,而且VS-NAT的最大处理能力不是与增加的物理服务器成正比的。

VS-NAT实现方法的最大优点是物理服务器可以是任何一种操作系统,无需为了完成LVS而作任何修改,而且可以实现一些在Linux上不存在服务。

4.33.VS-NAT与Linux核心支持的NAT

当然可以使用ipchains或ipfw构建基于Linux内核的NAT防火墙。而使用了基于2.0.36版内核的LVS补丁包后,常规的内核模块(如ip_masq_ftp等)不再工作(而且不再需要装载)。

5.VS-DR模式

5.1.总论

VS-DR是基于IBM的NetDispathcer实现的。NetDispatcher位于WEB服务器的前端,对于客户端来说就象一台WEB服务器。NetDispatcher曾服务于奥运会、卡斯帕罗夫与深蓝电脑的国际象棋比赛。

这里有一个VS-DR的IP地址设置的实例。注意:物理服务器与VIP位于同一个网络上。

VS-DR模式在以下几方面受到了限制

1) 物理服务器和负载均衡器必须在同一个网段上(它们之间必须能使用arp协议),它们之间在数据链路层上传递数据包;

2) 客户端必须通过负载均衡器的VIP访问集群;

3) 物理服务器必须有到客户端的路由(即使客户端没有到物理服务器的路由)。因为从物理服务器返回到客户商的包,将直接发送,无须通过负载均衡器转发。

VS-DR模式下,客户端通常与负载均衡器和物理服务器位于不同的网络中,而且每一个物理服务器拥有自己对外的路由表。在下面这个简单的例子中,所有的机器都在192.168.1.0这个网络,物理服务器不需要设置默认路。网络拓扑结构如下图所示:

IP分配如下表所示:

表21-3 .IP分配

机 器 IP 地 址

客户端 本机IP:CIP 192.168.1.254

负载均衡器 本机IP:DIP 192.168.1.1

虚拟IP:VIP 192.168.1.110(ARP与客户端使用)

物理服务器1 本机IP:RIP 192.168.1.2

虚拟IP:VIP 192.168.1.110(不ARP)

物理服务器2 本机IP:RIP 192.168.1.3

虚拟IP:VIP 192.168.1.110(不ARP)

物理服务器3 本机IP:RIP 192.168.1.4

虚拟IP:VIP 192.168.1.110(不ARP)

5.2.VS-DR良好的扩展性

VS-NAT方法受限于经过负载均衡器的每一包都必须重写,用这种方法最大的数据吞吐量受限于负载均衡器的环境。(如一台Pentium机器,快速以太网,最大的数据吞吐量为80M/秒)而且增加物理服务器的数量并不能增加这个最大数据吞吐量。而使用VS-DR模式,速度限制则在每个物理服务器与Internet连接的包处理能力,而对负载均衡器的要求不大,因为其只需处理简单的包。在VS-DR的模式下,能够增加更多物理服务器以提高系统能力。

6 VS-TUN模式

6.1.总论

VS-Tun是LVS独创的的,它是基于VS-DR发展的。具有良好的可扩展性和服务吞吐量。

使用VS-Tun方式的话,必须采Linux作为物理服务器,而负载均衡器将IP请求重新包装成IPIP包后发给

物理服务器。所以物理服务器必须能够解IPIP包装才能,现在只有Linux操作系统能处理IPIP包(IP隧道技

术)。

不同于VS-DR,VS-Tun方案允许物理服务器与负载均衡器在不同的网络上,甚至允许所有的机器都在

单独的网络上,那怕物理服务器位于不同的国家(例如:做一个项目的FTP站点镜像)。在这种情况下物理

服务器将产生源地址=虚拟IP地址,目标地址=客户机IP地址的IP包。

如果物理服务器与负载均衡器位于相同的网络上,那么VS-DR和VS-Tun是等价的。VS-DR更具有灵活

性,因为大多数操作系统都可以用来构建物理服务器。

6.2. VS-Tun实例

以下是一个VS-Tun的IP配置实例。VS-Tun提供的最大方便性就是不需要服务器与客户端位于同一个网络上,仅需要客户端能寻径(有路由)到负载均衡器,物理服务器能寻径(有路由)到客户机。(返回的包直接从物理服务器到客户端,无须再经过负载均衡器)

通常使用VS-Tun模式时,客户端是与负载均衡器、物理服务器位于不同网络上的,而且每一台服务器

有一个通往外界的路由。

IP分配如下表所示:

表21-4.IP分配

机 器 IP 地 址

客户端 本机IP:CIP 192.168.1.254

负载均衡器 本机IP:DIP 192.168.1.1

虚拟IP:VIP 192.168.1.110(ARP与客户端使用)

物理服务器1 本机IP:RIP 192.168.1.2

虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)

物理服务器2 本机IP:RIP 192.168.1.3

虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)

物理服务器3 本机IP:RIP 192.168.1.4

虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)

…… …… ……

物理服务器n 本机IP:RIP 192.168.1.n+1

虚拟IP:VIP 192.168.1.110(隧道技术,不ARP)

6.3.配置VS-Tun

1)编辑配置文件模板lvs_tun.conf后,进行配置:

$ ./configure_lvs.pl lvs_nat.conf

2)在物理服务器上运行:

$ . ./etc/rc.d/rc.lvs_tun

3)将配置文件放到/etc/rc.d或/etc/init.d目录下。

4)检查ipvsadm、ifconfig ?a和netstat ?rn的输出,检查服务/IP地址是否正确,如果有误,请修改后重新运行脚本。

服务器虚拟化在企业的应用研究 篇6

关键词:服务器;虚拟化;Citrix;资源整合

中图分类号:TP391.9文献标识码:A文章编号:1007-9599 (2012) 01-0000-02

Server Virtualization Application Study in the Enterprise

Liu Yao

(Xiangtan Electric Manufacturing Co.,Ltd.,Xiangtan410004,China)

Abstract:With the in-depth development of information technology,

business systems specialized,complex,enterprise has accumulated a lot of server resources,and its different hardware Condition of varying reliability,use of inefficient management of complex,high operating costs no less than,etc.are gradually becoming apparent.The virtuali-

zation technology in the data set,integration resources has broad application prospects,more and more manufacturers and businesses have joined to the research and application of virtualization technology.

This paper describes how to implement server virtualization of Xiangtan Electric Manufacturing Co.,Ltd..

Keywords:Server;Virtualization;The Citrix;Resource integration

一、项目背景

随着信息化建设的深入发展,企业内积累了大量服务器资源,为解决信息系统各自独立分散、信息资源不能有效协作和共享的问题,湘潭电机股份有限公司(以下简称“湘电”)IT部门提出了数据集中及资源整合的具体目标和思路,利用服务器虚拟化技术实现资源整合,充分发挥服务器性能,提升系统的整体使用率。经统计,湘电现有服务器数量40余台,承载五大关键业务系统和其余业务系统10多套,年服务器增长数量5台以上,空间、电源、网络等基础实施资源剧增;系统管理人员需花费几天甚至更长的时间停机完成硬件维护、升级等工作。综合以上问题,湘电希望借助服务器虚拟化技术提升硬件资源利用率,节省硬件和运营成本,提高管理效率,打造集中管理资源的虚拟化应用平台。

二、Citrix虚拟化技术简介

该技术具有虚拟机动态在线迁移、资源动态分配及负载均衡等特点,且虚拟机的封装文件都存放在统一存储上,通过共享存储进行在线迁移正在运行的虚拟机、进行动态资源管理,为以后容灾备份提供扩展性打下基础。

Citrix自始至终都是以硬件来完成Hypervisor中模拟系统资源的角色,Xen hypervisor运行在最低特权层,直接与硬件打交道,负责为运行在物理主机上的各个虚拟机调度CPU和内存分区。通过DMC(动态内存控制)来实现内存的分配,DMC允许用户不必给每个虚拟服务器分配多少内存的问题上做出一个固定选择,可以在一定的限制内,在不重启服务器的情况下减少或增加服务器的主机内存分配。Citrix XenServer的StorageLink技术与领先存储平台进行了深度集成,利用现有的管理功能和进程,可降低虚拟环境中存储管理的成本和复杂性。为了对服务器虚拟架构进行有效的管理和监控,Citrix将物理服务器和存储资源划分成不同的资源池,让用户可在企业内轻松供给、搜索、监控、迁移和保护虚拟机,以实现灵活而简单的运维管理。

三、实施过程

1.现状评估。在实施开展前,对各类业务系统的资源使用情况进行调研分析,调研内容包括:操作系统类型,CPU、内存、网络带宽和磁盘空间使用率。

2.虚拟化方案设计。经小组成员讨论后,确定了总体设计方案和详细规划。对实施过程中可能出现的问题制定了解决方案,确保其高可用性。

3.物理平台选型。对需要加入虚拟架构的设备数量和资源利用率进行整体分析,以确定物理宿主机的具体配置。虚拟化硬件平台由2台高性能的HP DL 388 G7服务器,一套EMC VNXe 3300存储,1台千兆光纤交换机组成,设备连接结构如下图所示。

4.应用系统规划。应用方面优先非核心业务系统的部署,根据每个应用程序的峰值进行合理的错峰搭配。针对不同的应用分阶段进行迁移操作,可先将非生产系统,如库房服务器上的WEB应用、AD服务器上的WEB应用,迁移到虚拟化服务器上,待其稳定运行一个月后,再进行第二期的迁移工作。

序号应用系统物理服务器CPU内存磁盘空间

1SolidWorks2012浪潮N710L11GB200GB

2数据挖掘HP DL 380 G511GB200GB

3质量管理HP DL 380G511GB320GB

4协同平台库房服务器11GB150GB

AD服务器12GB100GB

5图号申请浪潮N710L11GB300GB

6工号签注浪潮N710L11GB300GB

下图为应用系统在虚拟机平台上的运行情况:

5.物理服务器迁移。虚拟机的迁移部署可以采用2种方式来实现:使用XenConvert迁移工具将旧系统直接迁移到虚拟架构中;重新安装虚拟机,并在新的虚拟机上重新部署应用系统。

四、实施成果

结合公司实际情况,已陆续完成了文件、网站等非生产业务服务器的系统迁移工作,目前运行状态良好。Citrix虚拟化方案架构让湘电信息中心达成以下目标:

1.提高了业务系统的高可用性。通过Citrix虚拟化平台的物理隔离技术,完成了各业务系统与服务器硬件之间的相对独立,为业务系统提供了与服务器硬件无关的基础架构。同时,利用HA技术保证了业务系统的高可用性。

2.提高了服务器的资源利用率。采用了服务器虚拟化技术后,可以实现在少量物理服务器上运行多个虚拟服务器的效果,大大提高了服务器资源利用率。

3.降低了运维成本。服务器的减少降低了维护费用,也降低了运营费用,包括:机房空间、电力消耗、制冷费用等。

4.简化运维工作。数据中心的管理从原来的多线管理变成了统一管理,简化了服务器管理人员的工作量,提高了数据中心的响应能力。

五、总结

随着服务器虚拟化技术在湘电的深入应用,今后将进一步对其他大型应用进行虚拟架构改造。同时,为达到科学整合的目的,可在现有方案上增加全冗余SAN环境设计,彻底消除单点故障区,配合后端EMC阵列库,达到完善的虚拟化应用效果。下一步将考虑把闲置下来的设备进行改机整合:加大内存、增加存储空间,通过千兆交换机进行虚拟化系统的备份架构的搭建。

服务器虚拟化技术在湘电的顺利实施,不仅实现了IT系统的优化、应用系统的整合、维护管理的简化、资源消耗的合理控制,同时为同行业的信息化深入发展提供了一个可资借鉴的成功范例,也为今后新建项目统一规划、资源综合利用、全局信息化水平的提高打下了坚实的基础。

参考文献:

[1]胡嘉玺.企业级虚拟机应用实战:玩转VMware VI、Hyper-V R2、XenServer[M].北京:电子工业出版社,2009

[2]王淑江.虚拟技术应用与实践[M].北京:电子工业出版社,2009

[3]张振伦.虚拟化服务器为绿色电力加油[J].现代图书情报技术,2009

[4]http://virtual.51cto.com/.51CTO网站.虚拟化技术专栏

服务器虚拟化技术分析 篇7

1 服务器虚拟化的功能

采用虚拟架构整合后, 我们完全可以通过在几台高配置的服务器上创建几十个虚拟服务器的方式, 用户在降低成本的同时, 还大大减少了环境的复杂性, 降低了对机房环境的需求, 同时具有更灵活稳定的管理特性。其主要功能包括以下三个方面:

(1) 集成整合功能。虚拟化服务器主要是由物理服务器和虚拟化程序构成的, 通过把一台物理服务器划分为多个虚拟机, 或者把若干个分散的物理服务器虚拟为一个整体逻辑服务器, 从而将多个操作系统和应用服务整合到强大的虚拟化架构上。

(2) 动态迁移功能。具体来讲, 当某一个服务器因故障停机时, 其承载的虚拟机可以自动切换到另一台虚拟服务器, 而在整个过程中应用服务不会中断, 实现系统零宕机在线迁移。

(3) 资源分配功能。虚拟化架构技术中引入了动态资源调度技术, 系统将所有虚拟服务器作为一个整体资源统一进行管理, 并按实际需求自动进行动态资源调配, 在保证系统稳定运行的前提下, 实现资源利用最大化。

2 服务器虚拟化的价值优势

服务器虚拟化技术体现了巨大的价值优势, 其分析如下:

(1) 降低运营成本。服务器虚拟化不仅能充分发挥服务器性能, 并且依靠强大的虚拟化服务环境管理工具使得管理自动化, 减少了人工干预, 数据中心的总体投资呈大幅下降趋势。

(2) 应用平台化, 平台得以透明化。服务器虚拟化技术能很好的将应用与硬件平台隔离, 将应用创建发布至虚拟平台上即可, 相当于为平台进行封装, 跨越了平台的限制。

(3) 提升产品投放效率, 加快应用对市场需要的响应速度。虚拟化的服务器技术, 使得应用部署周期大幅缩短, 只需以下几个简单步骤:输入激活配置参数, 拷贝虚拟机, 启动虚拟机和激活虚拟机, 周期一般为十几分钟。

(4) 创新型备份和恢复技术, 实时迁移提高服务可用性。服务器虚拟化的资源对应每个虚拟机, 针对每个虚拟机进行备份操作, 操作后的镜像可以根据要求动态迁移至新的虚拟机或新的物理机上。

(5) 绿色。服务器虚拟化计算在提高资源利用率的同时, 能对能耗进行有效管理。除此之外, 对运行环境的温度进行控制, 降低配套设备如空调的大量耗电, 整体性达到绿色低碳的目的。

3 典型的服务器虚拟化产品

目前市场使用较多的虚拟化产品主要有以下三种:

(1) Vmware。VMware厂商, 针对不同虚拟化情况, 当前主推的有三类产品。对于数据中心的解决方案主要是VMware v Sphere, 具有整合服务器、管理和业务连续性的功能。第二类产品是VMware Server。作为一种应用程序安装在Windows和Linux上, 依靠操作系统进行资源管理。此外, VMware还推出了免费的虚拟化产品—VMware ESXi。VMware ESXi旨在让各种规模的公司都能体验虚拟化的好处。

(2) Xen Server。Citrix Xen Server是一种全面的服务器虚拟化平台, 基于强大的Xen Hypervisor程序之上。Xen技术被广泛看作是业界部署最快速、最安全的虚拟化软件技术, Xen Server可高效地管理Windows和Linux虚拟服务器, 实现经济高效的服务器整合和业务连续性。

(3) Hyper-V。Hyper-V是微软的一款虚拟化产品, 其设计的目的是为广泛的用户提供更为熟悉以及成本效益更高的虚拟化基础设施软件。Hyper-V采用微内核的架构, 兼顾了安全性和性能的要求。同时, Hyper-V采用高效率的VMbus的高速内存总线架构, 并且能够完美支持Linux系统。

4 服务器虚拟化产品选型

当在以上三种虚拟化产品之间做出选择时, 用户首先应该明白自身的环境中已经拥有的东西。如果用户的环境大多使用微软的产品, 那么使用Hyper-V更合理, 因为用户的专业知识已经基于微软产品。

其次, 在比较这三款产品时, 得看用户的需求。如果用户不需要高级功能, 那就是用Hyper-V。微软Hyper-V在许多方面还有待改进, 最明显的是第三方管理、应用和工具的缺失。VMware有一个很强壮的架构, 有许多厂商拥有在v Sphere里想要使用的应用。

Xen Server仍然是一款不成熟的产品。因为它基于Linux, 使用思杰产品或思杰桌面虚拟化产品的公司可能考虑Xen Server以保持厂商一致性。使用Xen Server的话, 管理与维护就比Hyper-V或v Sphere困难得多。因此hypervisor的竞争主要集中在VMware和微软之间, 从这个角度来说, 如果使用不太流行、没有大量支持和应用的hypervisor没有多大意义。

摘要:现在虚拟化几乎已经成为一个众所周知的术语, 有些企业系统部分或者全部实现了虚拟化。文章介绍分析了服务器虚拟化的功能特点及价值优势, 并且比较了业界最为常用的三种服务器虚拟化产品, 给出了选择建议。

关键词:虚拟化,VMware,Hyper-V

参考文献

[1]张建.服务器虚拟化在代理服务器上的应用[J].计算机系统应用, 2011 (7)

浅析公司服务器虚拟化 篇8

什么叫虚拟化?虚拟化是指计算元件在虚拟的基础上而不是真实的基础上运行。虚拟化技术可以扩大硬件的容量, 简化软件的重新配置过程。CPU的虚拟化技术可以单CPU模拟多CPU并行, 允许一个平台同时运行多个操作系统, 并且应用程序都可以在相互独立的空间内运行而互不影响, 从而显著提高计算机的工作效率。同时, 虚拟化是也一种经过验证的软件技术, 它正迅速改变着IT的面貌, 并从根本上改变着人们的计算方式。

然而, 随着越来越多的企业希望能够有效应对IT系统成本控制日益精细化、服务器量越来越庞大、服务器利用率低下、x86服务器可靠性提升到5个9等问题, 能够显著带来成本节省、能够有效帮助服务器整合从而减少服务器数量、能够明显提升服务器资源利用率并且能够增强服务器可靠性的虚拟化技术, 就成为了x86架构服务器平台的一种强烈需求。尤其是x86服务器走入了越来越多的关键行业和关键应用后, 这个需求就更加突出了。

2 我公司面临的问题

我公司成功引进COSMOS码头操作系统后, 各方面的工作已全面展开, 数字化、信息化建设更是成为我公司进一步发展的动力。随着应用软件新平台的不断推出, 而作为硬件平台的基础服务器等需求量、维护量迅速增加, 原来管理模式已跟不上要求, 服务器的整合迫在眉睫。在短短几年中, 公司应用于生产和办公的系统就超过30个, 服务器数量超过27台, 磁盘阵列2台, 总台数达28台。总存储容量约15TB。由于受操作系统版本不同、软件开发平台不同、应用不同、不同公司开发、相互之间协调、兼容等因素制约, 新增加的应用系统都需要单独配置服务器, 使得服务器数量直线增加。防病毒服务器2台;WSUS补丁服务器1台;网管服务器1台;FTP服务器2台;网站服务器1台;邮件服务器1台;桌面管理服务器1台;数据库服务器4台;接口程序服务器1台;视频服务器2台;GPS服务器6台;备份服务器1台;代理服务器2台;DNS服务器2台。

目前, 我公司服务器的利用率较低, 由于一台服务器只能有一个操作系统, 受系统和软件开发平台的限制, CPU、内存、硬盘空间的资源利用率不超过15%, 大量的系统资源被闲置;可管理性差, 首先是可用性低, 除个别系统做了服务器集群外, 几乎每个应用服务器都是单机, 其次是系统维护、升级和扩容时需要停机进行, 也将造成应用中断, 其中包括一些重要业务系统, 一旦中断服务影响很大;服务器和存储购置成本高, 维护成本递增, 随着服务器数量增加, 每年要支出高额购置费用, 我公司大部分服务器已经超过三年保修期, 部件逐渐进入老化期, 维护、维修预算费用也逐年增加;庞大数量的服务器带来巨大电力消耗, 用于服务器本身运行以及用于维持环境温度用于空调的耗电每天需要消耗2000千瓦时左右。

3 虚拟化技术的优势

3.1 整合遏制服务器蔓延

通常会将其70~80%的预算用做现有系统和应用管理开支。过去, 我们总是倾向于使用一台服务器运行一个应用。尤其是在x86服务器的使用方面, 因为一台服务器运行一个应用的方法, 不仅可以简化服务器的部署工作, 而且还可以减少潜在的软件冲突。但是过多的服务器带来了处理器应用率低下、维护困难 (服务器的升级、补丁, 防病毒等) 、维护成本高等多方面问题, 而且, 管理这些系统的相关成本也急剧增长。虚拟化技术正在转变IT行业的状况, 它使各个组织能够动态地改善IT基础架构的性能和效率。让虚拟机在组织中发挥重大作用, 每个虚拟机作为一小组文件存在, 这些文件模拟整个硬件平台, 包括CPU、RAM和网络端口。这种强有力的技术打破了“一台服务器一个应用程序”的传统体制, 概括起来其优势表现为:提高服务器的利用率, 实现服务器的高可用性, 便于管理、易于维护。

3.2 提高服务器利用率

经过我的测试, 目前我公司x86服务器系统利用率只有10%-30%, 大量服务器处于严重的利用率低下状态。导致服务器利用率低下的原因有许多, 例如每种工作负载都需要使用单独的服务器、、容量规划不科学等等。传统的整合方式, 就是在单个操作系统副本上运行多个应用, 导致了许多技术障碍。

3.3 让数据中心更可靠

虚拟化可通过以下几个主要方式, 提高数据中心的可靠性, 保障业务连续性:

故障隔离:大多数应用故障均由软件故障引发。虚拟化可提供虚拟分区之间的逻辑隔离, 这样一个分区中的软件故障便不可能影响到另一个分区中的应用。逻辑隔离还能帮助遏制数字攻击, 从而可有效增强整合环境中的安全性。故障切换灵活性:虚拟机通过配置可为一个或多个应用提供自动故障切换。通过在相同平台上提供故障切换分区作为主要应用, 通常可满足服务等级要求。如果要求更高的可用性, 可将故障切换分区托管到单独的服务器平台上。不同的安全设置:每台虚拟机可以应用不同的安全设置, 这样IT部门就能够保持对最终用户和管理员特权的高度控制。

3.4 有效减少TCO

服务器虚拟化软件领域执牛耳的厂商VMware证实, 通过虚拟化和整合, 用户可以在服务器总拥有成本 (TCO) 方面有明显的节省:

硬件成本减低:28%~53%;运营成本降低:72%~79%;总体成本降低:29%~64%

VMWare还证实, 虚拟化可以在软件授权上再节省20%的成本。

4 公司x86服务器整合设想

4.1 公司部分服务器虚拟化部署 (见表)

4.2 虚拟化软件的选择和安装

安装ESX server 3.5 (包括VMware HA, VMware DRS, Vmotion等) 服务器虚拟集群基础构架系统软件。

安装Virtual Center2.5虚拟集群管理应用软件, 通过它来实现高级功能如VMware HA、VMware DRS、Vmotion等。

使用VMware Converter Enterprise 4将实体服务器迁移至虚拟集群的应用软件。

使用VMware HA技术, 确保基础架构不受多个故障源影响, 保护不带其他故障切换选项的应用程序, 并使原本可能不被置于保护下的软件应用程序也具有高可用性。

4.3 将实体服务器迁移到虚拟机的构想

使用VMware Converter Enterprise 4软件, 可将实体机迁移到虚拟机, 迁移成功后, 在正式投入使用之前, 让它在虚拟机试运行一段时间, 要对CPU、内存等负载情况进行严格的测试, 必要时可调整CPU、内存和硬盘存储空间, 确保系统的可靠性与可用性。我们从负载最小的应用平台做起, 顺序是:杀毒服务器、Web服务器、FTP和邮件服务器、Oracle数据库服务器。例如:从实体机Symantec杀毒服务器开始, 然后再迁移第二台服务器, 公司网站服务器, 依次类推, 直至全部迁移。在迁移过程中我们可以及时掌握虚拟机的压力。同时在试运行阶段我们暂时保留被迁移的实体机, 一旦发生问题无法逆转, 可以再切换回去。实体机整体迁移时, 在千兆网络迁移时每小时约传输40G数据。如果虚拟机和实体机之间直连用双绞线连接迁移, 每小时约传输80G数据, 可以实现高速迁移。

5 应用效果

目前实验阶段, 我已经完成了一台杀毒服务器, WSUS服务器的虚拟化工作, 从实验结果看, 明显地提高该物理服务器及其CPU的资源利用率。对腾出的服务器可用作补充后期应用开发和服务器虚拟化, 从而减少了物理服务器的扩充数量, 大大地降低硬件成本。同时, 从能耗方面技术, 进行虚拟化后, 就现在运行的两台服务器而言能耗降低了近30%, 如果日后将规划后的服务器完全虚拟化后, 机房整体能耗将降低40%左右, 也就意味着每天节省用电800千瓦时, 能大大节省费用支出

摘要:随着虚拟化技术不断发展, 使用虚拟化技术已经不再神秘。近年来各企业信息化建设再次投入时, 也开始注意到虚拟化技术的使用价值, 用来帮助升级和管理他们的IT基础架构并提升其安全性。

关键词:服务器,虚拟化,x86

参考文献

[1] (美) Bryan Jacquot (美) Dan Herington《虚拟服务器环境》人民邮电出版社欧阳宇 (译) .

基层央行服务器虚拟化实践 篇9

一、服务器虚拟化前的系统运行情况

(一) 业务系统运行情况

截至2010年底, 南京金融票据中心拥有6大业务系统:同城票据影像交换系统、全国支票影像交换系统 (CIS) 、票据集中提回处理系统、票据交换网络信息交互平台、江苏省集中代收付系统和银联商务档案数字化采集系统, 共计17台服务器。除了2台服务器外接密押设备目前无法进行虚拟化之外, 其余15台服务器均可纳入虚拟化范围。

我们对业务系统运行情况进行监测后发现, 可以进行虚拟化的15台服务器资源利用率相对较低, CPU使用率大多低于10%, 内存利用率平均为35%。

(二) 开发测试系统运行情况

截至2010年底, 南京金融票据中心拥有的开发测试系统是在一台低端服务器安装了免费的虚拟化软件, 搭建了4个虚拟机, 包括源代码管理服务器以及3个业务系统开发测试环境。数据均存放在低端服务器的本地磁盘内, 可靠性较低, 免费的虚拟化软件功能也相对较少。

二、服务器虚拟化的主要做法

(一) 分步建设虚拟化集群

为节省投资同时确保安全, 虚拟化集群的建设工作分为3步实施:

1. 搭建存储局域网

2011年3月全部设备到货后, 利用iSCSI存储阵列和千兆以太网交换机搭建存储局域网。存储阵列可用容量为6.8TB, 其中专门划分出一个1.4TB的LUN用于开发测试。

2. 搭建生产集群

2011年4月至9月选择4台较高配置的服务器作为主机, 每台主机均配置4核双CPU、32GB以上内存、10块千兆网卡, 分别与内网交换机、专用网交换机和存储局域网交换机建立双线路连接, 安装了VMware第4代虚拟架构套件——vSphere 4.1企业版并经过配置后, 建立了4台主机组成的生产集群。因集群管理需要, 在生产集群中搭建了集群控制中心 (vCenter) 虚拟机, 并在相关PC机上安装vCenter客户端。

3. 搭建开发测试集群

生产集群搭建完成并将各业务系统迁移至生产集群后, 2012年3月选择原有两台中等配置服务器, 每台主机均配置2核双CPU、16GB内存、2块千兆网卡, 分别与内网交换机和存储局域网交换机建立单线路连接, 在安装了VMware第5代虚拟架构套件——vSphere5.0标准版并经过配置后, 建立了2台主机组成的开发测试集群。最后将vCenter版本由4.1升级至5.0, 由vCenter统一管理生产集群和开发测试集群, 同时将生产集群与开发测试集群进行隔离, 以确保生产环境的安全运行。

(二) 对各业务系统进行虚拟化测试

1. 对各业务系统进行虚拟化直接迁移测试

虚拟化直接迁移是指通过专用的转换工具, 将物理服务器直接转换为虚拟机。我们通过咨询VMware技术支持后得知, 在其官方直接迁移 (P2V) 操作系统版本兼容性列表中, 未明确支持和明确不支持的操作系统版本在P2V实践中也有一定的成功率。除同城票据影像交换系统使用的Windows NT 4.0操作系统版本较旧、不在P2V兼容性列表中之外, 2011年3月至6月我们对其余5个业务系统共13台服务器均进行直接迁移测试。测试结果表明, 官方未明确支持P2V的Suse Linux 9操作系统经过测试后确定支持P2V, 官方明确不支持P2V的Debian 4.0及5.0操作系统经过测试后确定支持P2V, 官方明确不支持P2V的Windows 2000 Server操作系统经过测试后确定不支持P2V。

直接迁移测试为各业务系统如何迁移至虚拟化集群中明确了首选执行方案, 也为在上线切换中可能会遇到的问题积累了应对经验。经过直接迁移测试, 支持P2V的业务系统均被直接迁移至虚拟化集群中用于下一步的测试, 不支持P2V的业务系统则采取重建虚拟机并导入数据库数据的方式迁移至虚拟化集群中用于下一步的测试。

2. 完成各业务系统在虚拟化集群中的功能测试、性能测试以及虚拟化集群的压力测试、冗余测试

为了顺利完成各业务系统在虚拟化集群中的测试工作, 我们联合相关业务部门制定了详尽的测试方案, 2011年4月至7月共安排52次测试, 对每个业务系统都安排了多轮测试, 对部分业务系统的关键功能点测试最多达10次。在测试过程中, 我们认真记录发现的问题, 适时对虚拟机的参数设置进行调整, 与业务人员一起完成了各业务系统在虚拟化集群中的功能测试、性能测试工作, 每一项测试任务都在双方共同认可后签字确认。另外, 我们还完成了虚拟化集群的压力测试和冗余测试工作。

(三) 对各业务系统进行虚拟化上线切换

所有测试工作顺利完成后, 经过认真分析总结, 我们为每个业务系统制定了详细的上线切换方案和回退方案, 坚持每项具体工作步骤落实到人, 并联系相关系统的集成商提供现场技术支持。2011年8月至10月陆续完成各业务系统的虚拟化上线切换。上线切换至今, 各业务系统虚拟机运行情况良好。

三、服务器虚拟化后取得的成效

(一) 新购服务器投入大幅减少

服务器虚拟化后, 新业务系统上线时只需在虚拟化集群中新增虚拟机, 分配主机、网络、存储等资源即可, 不再采取以往购置2台服务器、1台磁盘阵列和1套双机热备软件的方式, 原定新增的11台服务器 (含阵列和双机软件, 下同) 不再需要购买, 原有服务器中的4台分配给不便进行虚拟化的系统使用。新购服务器投入节省合计约91.6万元, 仅此一项便收回了大部分投资。

(二) 系统运行成本有效降低

系统运行成本主要包括系统运行所需的电力消耗、服务器设备维保2大块。

服务器虚拟化前, 17台服务器和5台阵列的平均功率约13.8KW。服务器虚拟化后, 8台服务器和2台阵列的平均功率约8.7KW, 比服务器虚拟化前下降了37%, 配套的机房空调和UPS负载也随之降低。

服务器虚拟化前, 2012年计划为17台服务器和5台阵列购买维保。服务器虚拟化后, 2012年计划为4台服务器和1台阵列购买维保, 维保费用比服务器虚拟化前下降了79%。考虑到2011年新购设备的3年免费维保期, 2014年计划为6台服务器和2台阵列购买维保, 维保费用仍比服务器虚拟化前下降20%。

(三) 运维工作效率有效提高

服务器虚拟化前, 运维人员对各业务系统的检查采取现场检查的方式, 相关数据收集有限, 工作效率不高。服务器虚拟化后, 各业务系统在虚拟化集群中运行, 运维人员只需打开vCenter客户端界面就可以对虚拟化集群中的所有主机和虚拟机进行检查, 相关数据以图表的形式呈现, 一目了然, 运维工作效率得到了有效提高。

在需要进行主机硬件维护时, 通过虚拟机迁移 (v Motion) 和主机进入维护模式的方式, 将需要维护的主机隔离出来。主机硬件维护结束后, 将主机退出维护模式并重新接入虚拟机集群。在此期间, 业务系统可以持续正常地运行, 运维人员可以进行无中断地维护。

(四) 开发测试更加高效

虚拟化服务器的应用研究 篇10

一、现状描述:数量与对象之间的矛盾

随着学院系部教学、试验系统的不断的增加,各类应用软件的不断引进。在短短几年中,应用于教学和管理的系统多达40余个,服务器数量更是超过30台。由于受操作系统版本不同、软件开发平台不同、应用不同、不同公司开发、相互之间协调、兼容性、及服务器安全等因素制约,新增加的应用系统80%以上需要单独配置服务器。

目前学院服务器分布情况如下:学院网络管理服务器共7台,其中DNS服务器1台,DHCP服务器1台,认证服务器2台,日志服务器2台,网管服务器1台。教学及实验系统服务器16台。图书系统服务器4台。图书借阅系统1台,Web服务器1台,期刊索引1台,电子图书1台。OA系统4台。其中旧版和新版OA各1台,教务系统1台,数据库服务器1台。校园网络版病毒控制中心1台。学校网站服务器3台、邮件服务器1台。机房一卡通管理服务器1台。其他自行开发的各种应用系统,如网上选修系统、资产管理系统、教材管理系统、人事管理系统等别安装在其他不同的服务器中。

从上可以看出37台服务器的应用分布和存储相当分散,如果不能有效的解决该问题,在今后仍然面临服务器不足的问题。

二、概念设计:服务器虚拟化技术内核

针对以上各种问题,经过分析和调研,认为目前学校的服务器平台前期建设已经投入了大量的人力、财力,既要充分利用现有的服务器等资源,又要考虑到系统整合后的高可用性、稳定性及适合未来技术发展的趋势,以此来实现对服务器的(包括应用程序平台)整合,虚拟化技术就成为服务器整合的一条捷径。

1、服务器虚拟化概念

服务器虚拟化(Server Virtualization)是指多个操作系统在同一时间运行在同一台主机上。通过这种技术,在一台机器上可以支持Linux,Windows,UNIX等操作系统同时运行,而不需要重启机器以切换操作系统。简单地讲,就是将物理机器、操作系统及其应用程序“打包”成为一个文件,称之为虚拟机[1,2]。

2、服务器虚拟化的价值分析

通过对虚拟化技术的研究与应用于解决我院如下问题。

因某些应用无法在单一服务器上整合,为了避免冲突和兼容性,于是一个业务一台服务器,造成服务器数量加大但当次较低,运行稳定能力不足。虚拟化技术的应用,将极大的提高每台服务器的利用率,从而降低整个服务器基础架构的总体拥有成本,意味着绿色。

因物理服务器数量的减少,服务器群的能耗,散热用电均大幅度减少,备用电源UPS也不会造成水涨船高的形态。

降低管理成本,解决数量庞大的服务器群所带来的运行维护成本上升,虚拟化技术可通过服务器整合提高服务器管理效率,减少需要管理的物理资源的数量、隐藏物理资源的部分复杂性,实现负载管理自动化,通过集中管理控制台来加强和简化公共管理任务。

提升系统安全性,虚拟化技术可提升系统突发情况下的安全性,由于虚拟系统的硬件平台无关性,将大大提高了业务系统的服务可用性。

三、行动计划:一个具体应用的解决方案

1、硬件准备

两台I/O性能方面强大,内存容量大的服务器,我们采用的型号为DELL R900,支持4路CPU高端服务器,配置4个4核英特尔至强处理器,64G内存,5块173G SAS 15K硬盘,4块盘RAID 5一块热备,用于安装ESX Server3.5虚拟机的操作系统,每台实体机上可根据应用的大小,根据服务器配置,可重新安装配置或从实体机中迁移20到32个实体服务系统进行虚拟化操作。

一套DELL NX1950 IP SAN/NAS存储系统,容量6T,用于虚拟机的共享存储。

利用虚拟后空余的服务器安装Virtual Center2.5和ESX server 3.5的License,可在MS Windows界面下,管理虚拟机和客户操作系统。

2、将实体服务器迁移到虚拟机

使用VMware Converter Enterprise 4软件,可将实体机迁移到虚拟机,迁移成功后,在正式投入使用之前,让它在虚拟机试运行一段时间,要对CPU、内存等负载情况进行严格的监控,必要时可调整CPU、内存和硬盘存储空间,确保系统的可靠性与可用性。

我们从负载最小的应用平台做起,顺序是:杀毒服务器、Web服务器、文件和邮件服务器、SQL Server服务器。例如:从实体病毒控制服务器开始,然后再迁移第二台服务器,学校Web服务器,依次类推。在迁移过程中我们必须及时掌握虚拟机的压力。同时在试运行阶段我们暂时保留被迁移的实体机,一旦发生问题无法逆转,可以再切换回去。

实体机整体迁移时,在百兆网络环境迁移时,每小时约传输10G数据,在千兆网络迁移时每小时约传输40G数据。如果虚拟机和实体机之间直连用双绞线连接迁移,每小时约传输80G数据,可以实现高速迁移。

3、在实现ES X的HA注意的问题

虚拟化的集群对象是作为虚拟机的物理服务器,而不是针对单个虚拟机。

必须保证资源池中所有服务器对共享储存区域的访问,以保证使用包括动态迁移等高级特性。

集群化后为保证虚拟机的顺利迁移,必须保证资源池中留有一定的资源空间位虚拟的迁移准备。

4、避免误区

不要为了虚拟化而进行虚拟化,要循序渐进,利用好原有的资源,要严格按照实体机的方式进行管理,对于高计算量的系统暂缓虚拟化。

我们仅仅对学院应用压力比较小的部分服务器应用系统平台进行了虚拟化,为我们能迁移应用压力较大的服务器提供了经验。对一些应用系统压力相对较大的应用平台,因迁移工作量大、自动备份和容灾要求高,应循序渐进,暂时利用好原有的资源来衡量,暂缓虚拟化。

安装ESX的服务器通过对CPU及内存使用情况的统计,应保证CPU每核应配置4G内存或以上,达到CPU及内存的高利用率。

四、效果分析:经济价值与服务质量

1、降低硬件成本

通过服务器初步整合,我们将21台服务器成功整合到2台服务器、1台控制中心和1套IP SAN设备里,并且明显地提高每个物理服务器及其CPU的资源利用率。空出的服务器可根据服务器的实际配置考虑是否升级用作今后的应用系统开发和服务器虚拟化,从而保护了原有投资,减少了物理服务器的扩充数量,最大限度地降低硬件投入。

2、提高资源的利用率

通过对服务器的虚拟化整合,使得单台物理服务器的资源得到了从分得利用,而且同时达到了CPU与内存的合理配置。

3、提高运维效率和服务质量

由于虚拟构架实现了虚拟机的动态可迁移性脱离了底层的硬件平台限制,不再需要像以前那样,一旦遇到硬件故障或维护需要数天的变更管理准备和维护时间,现在可以进行快速的迁移、维护和升级,不用担心某台服务器出现问题,会影响到整个应用平台。

随着网络覆盖范围的扩大,各类网络应用系统的开发速度也在加快,教学、试验系统的频繁测试对服务器不断提出新的需求,这时新服务器应用进行部署和测试,可在虚拟机里进行,大大降低了服务器重建和应用加载时间,提高了管理和工作效率。

由于将所有服务器作为大的资源统一进行管理,并按需进行资源调配,旧硬件和操作系统的投资得到了保护,也不再担心旧系统的兼容性,维护和升级等一系列问题。

4、为将来的集中网络存储提供可能

整合后物理服务器数量得到很大程度减少,对于成本或者其他原因未整合的服务器群暂时没有接入到存储网络的服务器,以后可以考虑接入到存储网络,这样可以充分利用网络存储的优势,将这些分散的数据集中管理备份,为这些服务器和应用,以及今后的容灾奠定基础。同时,通过虚拟机的特有功能和网络存储的有效结合,提高了这些应用的可用性、移动性和灵活性。

灵活性得到提高,通过服务器的虚拟化可实现动态的资源部署和管理,在不影响用户的情况下对物理资源进行维护、升级或改变,满足不断提高的业务需求,同时提高硬件部件的可靠性。

随着虚拟化技术的日益成熟,中文版Vmware ESX基础架构虚拟化套件的出现,使用虚拟化技术的稳定性逐渐被认可。高校在信息化建设投入中应充分考虑虚拟化技术的使用价值,用来提升IT基础架构的易用性、实用性、可管理、安全性。

参考文献

[1]泮春莲李梅.服务器的虚拟化走入应用市场.[J].计算机世界,2006.

[2]刘荣发.服务器虚拟化技术[J].图书馆数字化.

上一篇:师生课外互动下一篇:产业化模型