博威---云架构决胜云计算

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
楼主: network

VMware ESX4使用大全

[复制链接]
 楼主| 发表于 2010-12-20 08:33:17 | 显示全部楼层
 楼主| 发表于 2010-12-20 09:47:55 | 显示全部楼层
太平洋保险集团公司 (China Pacific Insurance )

借力虚拟化 太平洋保险打造绿色数据中心:通过部署服务器虚拟化应用,太平洋保险一举改变了长期以来应用服务器分散管理,实现了对应用服务器的统一管理、升级和维护,提高了信息管理的效能,为公司业务的稳定运行提供了强有力的保证。VMware中国区技术总监评价道:“太平洋保险数据中心的虚拟化解决方案,是目前国内保险行业数据中心虚拟化进展最快、架构最合理、技术最先进、实施运行效果最好的案例,也树立了金融行业数据中心虚拟化应用的成功典范。”
借助VMware虚拟化技术,太平洋保险打造能够快速部署、灵活应对业务不断变化的灵动数据中心。— 太平洋保险集团公司数据中心相关负责人
apac_cn_10Q1_ss_CPIC.pdf (288.41 KB, 下载次数: 2)


奇瑞汽车股份有限公司 (Cherry Auto)

VMware为奇瑞汽车提供充足服务器资源,保证业务连续性。奇瑞汽车采用了VMware公司的Virtual Infrastructure服务器虚拟化套件,在2台IBM 3850服务器上,部署了12个虚拟机,其中10个是开发测试系统,2个是业务系统的备份。
“通过部署VMware的服务器虚拟化技术,我们能够快速地搭建开发测试系统,从而能够满足企业应用开发测试部门的需要,这对于企业应对复杂而多变的外部竞争环境非常重要。”— 赵良雨, 奇瑞汽车股份有限公司信息技术公司
apac_cn_08Q4_ss_cherry_auto.pdf (274.15 KB, 下载次数: 3)


安利(中国)日用品有限公司 (Amway)

VMware整合安利数据中心,大幅降低物理服务器数量,安利公司采用了VMware 推出的虚拟化产品,从测试开发系统入手,购买了5 套虚拟化套件,在数台物理服务器上部署了虚拟化技术以便实现对测试业务的支持,此后又继续追加投资,将尽可能多的业务部门关键应用转移到了虚拟化平台。
“通过部署VMware 公司的虚拟化技术,我们大幅度地降低了所需要的物理服务器数量,不仅减少了数据中心的空间压力,也简化了物理服务器的管理工作,更是优化了测试、开发等流程所需要的资源分配工作。”— 黎德荣, IT经理


apac_cn_08Q4_ss_amway.pdf (496.62 KB, 下载次数: 3)


山东电力工程咨询院有限公司 (SDEPCI)

VMware助力SDEPCI提升企业信息化管理效能:通过在3台HP BL460 C刀片服务器以及4台机架服务器上部署VMware虚拟化软件,并用VMware Virtual Center进行统一管理,SPEDIC一举改变了长期以来应用服务器分散管理的弊端,实现了对应用服务器的统一管理、升级和维护,提高了信息管理的效能,为部门业务的稳定运行提供了强有力的保证。
“通过全面采用VMware的虚拟化技术及产品,我们大幅度减少了物理服务器的数量,提高服务器的使用效率和共享程度,减少了系统恢复时间,提升了系统的可用性和可靠性,大大提高了企业信息化的管理效能。未来,我们还将扩大虚拟化应用,在适当的时候引入桌面虚拟化,进一步应用虚拟化技术进行创新管理,提高效率,减少消耗。”— 王颖, 山东电力工程咨询院有限公司IT项目经理


apac_cn_09Q4_ss_ShandongElectricConsultingInstitute.pdf (324.18 KB, 下载次数: 1)
广东电信公司

为增值服务保驾护航:广东电信公司异地组建的容灾数据中心在4台HP 580服务器上使用VMware虚拟化软件建立各个业务虚拟机,通过VMware虚拟中心进行集中控制,实现资源自动调配、虚拟机的自动迁移、核心业务的高可用性等。配置HP EVA作为容灾数据中心的数据存储,通过VMware Site Recovery Manager实现生产站点与恢复站点之间的业务切换,切换方式可采用手动和自动方式。
VMware虚拟化技术为广东电信公司电信级应用异地接管业务的开展提供了坚实基础。采用VMware虚拟化技术,广东电信公司实现了业务异地在线容灾备份,确保在各种灾难损害发生后,依然能够最大限度地保障提供正常应用服务。— 广东电信公司
apac_cn_2010Q3_ss_guangdongdianxin.pdf (244.15 KB, 下载次数: 2)













 楼主| 发表于 2010-12-20 09:55:30 | 显示全部楼层
水利部水文局 (Ministry of Water Resources)

VMware帮助水利信息中心整合数据中心
"我们越来越感觉到机房空间的紧张,我们需要对服务器进行有效的整合,而且旧有服务器到了更换时间,我们希望能顺利地实现迁移,一些新的应用需要新增服务器,通过采用VMware的虚拟化技术,这一切都得到了很好的实现。我们既加强了管理,也没有中断正常的应用,更重要是在建设节约型社会的倡议下,我们还降低了数据中心的能耗。”— 周维续, 网络中心主任


apac_cn_07Q4_cs_vmw_ministry_water_resources_chinese.pdf (292.27 KB, 下载次数: 1)


浙江省科技厅

VMware助力浙江省科技厅实现服务器集中化管理和统一备份:浙江省科技厅利用VMware的服务器虚拟化解决方案,在2台Dell PC Server和3个刀片上部署了50多个虚拟机,通过vCenter对整个虚拟服务器群进行集中管理。
“服务器虚拟化技术帮助我们整合服务器资源,简化服务器管理,实现了统一备份和集中的性能监控,减少了系统恢复时间,保持了业务的连续性,提升了系统的可用性和资源分配的灵活度,还降低了数据中心的消耗。”— 李峰, 浙江省科技信息研究院网络管理中心运维主管


apac_cn_10Q4_ss_vmw_Zhejiang_Science_and_Technology_Department_chinese.pdf (231.81 KB, 下载次数: 1)


深圳航空 (Shenzhen Airlines)

VMware助力深圳航空实现低成本运作:通过部署Vmware服务器虚拟化解决方案,极大地提高服务器整合的效率,大幅度简化了服务器群管理的复杂性,提高了整体系统的可用性,实现业务的连续不间断运行,同时还明显地减少了采购成本,具有很好的技术领先性和性价比。
“通过服务器整合,将服务器数量降低到最小程度,加速了测试环境系统部署的速度。”— 深圳航空


apac_cn_10Q1_ss_ShengzhenAirline.pdf (240.06 KB, 下载次数: 1)


温岭市公安局 (Wenling Police)

VMware助力温岭市公安局简化IT管理,温岭市公安局在2007年7月部署了VMware公司的Virtual Infrastructure 3服务器虚拟化套件,在新购买的2台基于Intel 至强处理器PE2900服务器上,虚拟出16台虚拟主机,整合了相关的内部应用。
“通过实施虚拟化,满足了我们对系统的灵活配置,对原来的应用进行了有效分离。而且原来如果服务器发生硬件故障,我们通常要停机来进行硬件更换,现在我们只需将备份好的虚拟服务器的配置文件和虚拟硬盘镜像文件复制到新的服务器上,并恢复数据备份,就可以在几个小时内恢复业务系统的运转。”— 童舟城, IT技术负责人


apac_cn_08Q4_ss_wenling_police.pdf (530.01 KB, 下载次数: 1)
 楼主| 发表于 2010-12-20 09:59:30 | 显示全部楼层
湖北省国家税务局 (Hubei State Administration of Taxation)

VMware助力湖北国税;采用“六核+虚拟化”解决方案,将 10台现有应用服务器进行整合,利用 VMware企业级服务器虚拟化软件VI3, 把原有的物理系统整合为基于浪潮四路六核的虚拟化平台。 同时基于两台服务器系统和一台存储系统搭建VMware HA、DRS群集,在虚拟化的基础上提供HA高可用、DRS资源动态调度等高级功能。
“可以看出,通过服务器的整合,减少了服务器数量和相应带来的运维成本,提升了服务器资源利用效率。如果增加现有服务器的内存,整合应用服务器的数量还可进一步提升,最终达到每台服务器整合10-20台虚拟服务器。”— 陈主任, 信息中心主任


apac_cn_09Q2_ss_HuiBeiGuoShui.pdf (274.8 KB, 下载次数: 1)




用友伟库网 (WeCoo.com)

用友伟库网是亚太地区最大的管理软件厂商用友软件旗下网站,致力于为中小企业提供专业、便捷、经济的一站式企业商务与管理在线服务。伟库网选择了与VMware、英特尔合作,通过VMware ESX Server,配合英特尔虚拟化技术,实现了对服务器系统资源的整合和充分利用。虚拟化技术可帮助单台高能效的多核物理服务器建立4 个以上的虚拟机,实现服务器整合,以运行多个相同或不同操作系统及其应用软件,简化了伟库网对服务器和数据的规划,提升了服务器的计算资源利用率,节省了在硬件上的支出。
“我们通过部署VMware 公司的服务器虚拟化技术,并结合英特尔至强7400 系列处理器,对服务器进行了资源整合,大大提升了服务器的利用率,提高了性能,能够支持更多的并发用户,从而有效节约了总拥有成本。”— 蒋蜀革, 用友软件副总裁兼伟库网副总经理


apac_cn_09Q1_ss_WeCoo.pdf (488.7 KB, 下载次数: 1)


美的集团 (Midea)

美的集团采用了VMware公司的Virtual Infrastructure服务器虚拟化套件,在2台基于Intel芯片的HP c7000刀片服务器上,配合后端的 EMC与HP的中高端SAN存储,部署了100多个虚拟机,有效降低了所需要的服务器和机架数量,降低了成本,提升了管理灵活性。
"我们部署VMware公司服务器虚拟化技术的最重要原因就是为了提升管理的灵活性,从而使我们能够快速应对需求的变化和各种不确定性,此外,虚拟化还能带来整体成本上的节省"— 聂虹, 集团公司技术工程师


apac_cn_08Q4_ss_midea.pdf (537.11 KB, 下载次数: 1)


肇庆移动 (Zhaoqing Mobile)

VMware助力肇庆移动打造绿色营业厅:基于VMware 虚拟桌面基础架构的SunRay虚拟桌面解决方案,为肇庆移动营业厅提供了非常好的桌面环境和各类应用,具有更高等级的安全性,让终端用户拥有更大的移动便捷能力。
“VMware虚拟桌面基础架构与Sun的Virtual Desktop(虚拟桌面)解决方案的结合,为肇庆移动提供了非常好的桌面环境和各类应用,具有更高等级的安全性,并成功实现了节能环保的绿色营业厅。”— 肇庆移动项目负责人
apac_cn_2010Q2_ss_ChinaMobileZhaoQing.pdf (248.2 KB, 下载次数: 1)
 楼主| 发表于 2010-12-20 10:03:18 | 显示全部楼层
西南科技大学

VMware助西南科技大学打造随需应变实验教学平台:西南科技大学采用VMware View4桌面虚拟化解决方案,在3台IBM HS21刀片服务器上部署了80多台XP虚拟机,将所有虚拟机文件都放在H3C IX1000存储上,配合使用VMware的P2V工具、VMotion 功能和HA 高可用性,打造新一代实验教学平台。
“VMware桌面虚拟化解决方案帮助我们显著地减少了前端桌面系统的维护需求,降低了数据丢失的风险,同时也提高了部署新系统的效率,保证了教学实验环境的安全性,加快了教学进度,更重要的是提升了系统的可用性。”— 西南科技大学信息安全实验室


apac_cn_10Q4_ss_vmw_Southwest_University_of_Science_and_Technology_chinese.pdf (264.08 KB, 下载次数: 1)


西门子(中国)有限公司 (Siemens China)

VMware助力西门子提升服务水平、应对数据中心空间挑战
“我们通过采用VMware的虚拟化技术,大大提高了服务器的利用率,也提高了数据中心空间的利用率,为我们节省了大量的费用。同时,也降低了我们提交新系统的时间,从数月时间降低到1个小时。这一切,对我们都有着重要的意义。”— 西门子行业应用企业集团总裁


apac_cn_07Q4_cs_vmw_siemen_manufacturing_chinese.pdf (325.36 KB, 下载次数: 1)


齐鲁证券

齐鲁证券利用VMware虚拟化技术优化IT架构:齐鲁证券在7台HP BL680服务器上部署了VMware vSphere 4.0,配合使用VMware的VMotion 功能和HA 、DRS高可用性以及P2V工具,实施服务器虚拟化应用,大大提高了服务器的利用率,提高了数据中心空间的利用率,节省了大量的费用。同时,也降低了了提交新系统的时间。
“通过采用 VMware的虚拟化技术,大大提高了服务器的利用率,也提高了数据中心空间的利用率,节省了大量的费用。同时,也降低了提交新系统的时间,从大约10天左右的时间降低到 1.5 小时。”— 齐鲁证券
apac_cn_10Q4_ss_vmw_Qilu_Securities_chinese.pdf (227.62 KB, 下载次数: 1)





 楼主| 发表于 2010-12-20 13:20:58 | 显示全部楼层
在我们的虚拟化系列测试文章中,我们IT168评测中心面对了虚拟应用中的各种问题。其中有一个问题就是,在建立虚拟机的时候,虚拟网卡应该选择哪一个?它们有什么区别?


' |: e/ i5 u# r& GVMware ESX Server提供了两种虚拟网卡:Enhanced vmxnet和Intel E1000

  在比较久的年代,VMware Workstation和VMware GSX Server上提供的是古老的AMD PCNet10/100Mbps虚拟网卡,其时VMware通过一种类似部分虚拟化的vmxnet优化虚拟网卡的方式提供了10/100/1000Mbps性能,无疑性能更好,然而时过境迁,现在的VMware ESX Server提供了IntelE1000的千兆虚拟网卡,它和vmxnet虚拟网卡哪一种更适合实际应用呢?




 我们通过WebBench的静态页面测试来测试各种环境下的网络性能,在我们以往的测试当中,这个可以吃掉大量的带宽,20多台客户机的负载就可以将一个千兆网卡耗尽。

  测试基于我们实验室的一台DELL PowerEdge 2950服务器,配置了两个Intel 45nm Xeon E5430处理器。

  •    

    WebBench v5.0

  WebBench是针对服务器作为WebServer时的性能进行测试,我们在被测服务器上安装了IIS6.0组件,以提供测试所需的Web服务。在测试中我们开启了网络实验室中的60台客户端,分别使用了WebBench 5.0内置的动态CGI以及静态页面脚本对服务器进行了测试。 ) Q+ y8 G. j/ a# N5 P/ |
  静态测试是由客户端读取预先放置在服务器Web Server下的Web页面(wbtree),这项测试主要考察的是服务器磁盘系统以及网络连接性能。我们使用了实验室中的60台客户端,配合Static_mt.tst多线程静态脚本测试向被测服务器发送请求。! J! a' m9 A7 ?
* q8 @% \/ C: T* S  x; v& Y! p
            

DELL 2950测试平台


. B8 n$ a$ f# E( @            
主板DELL
处理器Xeon E5430 x 2
主频2.66GHz
FSB1333MHz
L1容量64K(Data容量为32K)
L2容量12MB(共享)
芯片组Intel 5000X
内存2GB FBD DDR2 667 SDRAM x 82 s0 b- `& X& e/ }5 k
无虚拟化:16GB
. U! x* X0 O. g9 c+ m, hESX Server:16GB
( Y5 A/ Y. H  L2 S# @虚拟化:8GB
磁盘控制器LSI Logic MegaRAID SAS 8408ELP
硬盘Seagate Cheetah 146GB 15K.5 SAS x 3
硬盘设置RAID 5,条带大小64KB,适应性预读,Cached IO
Windows硬盘设置主系统分区30GB,次分区50GB,NTFS格式
操作系统VMware ESX Server 3.5.0 646072 t+ D3 l) x3 I
Windows Server 2003 R2 Enterprise x64 Edition SP2  N) C7 h- U2 }5 g+ t
with IIS 6.0
网卡Broadcom BCM5708C千兆网卡 X 48 B+ e6 R& m* j% ~
虚拟化:VMware vmxnet X 4
7 V7 Z. L/ L! \4 ^9 V( O, V虚拟化:Intel E1000 X 4
网卡驱动程序无虚拟化:Broadcom x64
! k4 z& Q5 `1 \) Z虚拟化:VMware vmxnet driver  m# ?9 v+ S6 O
虚拟化:Intel PRO Set 13.0 x64
  我们采用了评测中心的一台DELL 2950服务器,配置了双路Intel 45nm XeonE5430处理器,频率为2.66GHz,支持SSE4.1指令集,最主要是支持Intel VT技术(VirtualizationTechonology),它可以降低虚拟机切换的损耗,从而提升虚拟化应用上的效率。关于硬件级别的虚拟化辅助技术,详细可以参见:从VT-x到VT-d Intel虚拟化技术发展蓝图。服务器还使用了Intel 5000X芯片组,提供24MB的SnoopFilter缓存,这可以提升高负荷时的内存/处理器性能。主操作系统的磁盘系统则是3块15000RPM的Cheetah15K.5,并通过一块PCIe x8的LSI MegaRAID SAS 8408ELP来组建RAID 5阵列。$ ^9 h1 c, W+ ^+ v7 R$ Z# G
  我们使用了4块Broadcom BCM5708C千兆网卡,在没有虚拟化的Windows下使用了Broadcom驱动的Team功能。

测试未虚拟化的时候,我们安装了Windows Server 2003R2 x64操作系统,并使用启动参数将可用处理器限制为4个——因为目前VMware ESXServer只支持每个虚拟机最多4个处理器。未虚拟化条件下我们使用了Broadcom驱动的Team功能,将4块Broadcom千兆网卡捆绑为一块高带宽的“网卡”。  测试虚拟化的时候,我们安装了VMware ESX Server 3.5.064607,这是一个推出仅数月的新产品,可以支持包括VT-x、VT-d在内的硬件辅助虚拟化技术,对性能的提升很有帮助。我们在一个292GB的RAID 5阵列上采用默认分配的方式安装了ESX Server 3.5.0,并安装了一个Windows Server 2003 R2x64,这个虚拟的服务器具有4个处理器和8GB的内存(因为不可能把实际服务器的16GB完全分配给虚拟机)。
2 ~7 N: ?/ F5 C5 c9 N

: }/ ~) s/ {% O; N0 {% A# u
VMware ESX Server自带的网络链路聚合功能

  VMware ESX Server的Bare-Metal裸操作系统底层支持链路聚合功能,我们当然首先尝试了这个功能……实际表明,至少在我们的平台上,这个功能没有什么效果。


7 [, h4 D1 |! I+ v# l: X/ ^一个虚拟机最多4块虚拟网卡


% K4 B  P& A5 A; F: Q- A3 ]4 w全部设置为Intel E1000虚拟网卡,在设备管理器里面显示为Intel PRO/1000 MT网卡

  这时我们可以做出这样的虚拟机网络配置:4块Intel E1000虚拟网卡,分别分配到4个实网卡上。
( G$ l( d# J3 v1 R% G" x2 A( _& @2 k9 R

  通过Intel的PRO Set驱动,可以实现容错、负载平衡、链路聚合等高级功能。






' z) t  C' m/ K( c' `+ e3 l0 h# o虚拟化静态Web性能对比

  在单块虚拟网卡的情况下,Intel E1000的方式比vmxnet的方式性能更高,带宽利用上要高出10%~15%以上。我们知道静态Web性能测试就是比拼网络带宽。

  接着我们测试了多虚拟网卡下的性能表现,结果令人沮丧:4块vmxnet虚拟网卡的性能和单块vmxnet的性能表现毫无区别,下图采用的是4块Intel E1000虚拟网卡分别分配到4块Broadcom实网卡上的方式,并利用了Intel ProSet的链路聚合功能,它和实际无虚拟化下的4块Broadcom网卡链路聚合性能相比较。


/ }* `' e/ v0 h/ N* b2 [7 VVirtual Intel E1000 x4 VS Broadcom x4

+ G) M8 |! z# M
Virtual Intel E1000 x4测试过程中的网络占用图

  可以看出,4块Intel E1000虚拟网卡链路聚合可以提供很高的网络带宽。


. ?* }  c$ F% O5 w' [2 M- xVirtual Intel E1000 x4 VS Broadcom x4

  我们顺便也作了动态Web性能测试,结果比较奇怪,IntelE1000虚拟网卡在低客户端的情况下性能高约10%~15%,而在28个客户机之后突然开始性能下降,这个现象不正常——就整个绝对性能来说,也不符合4个虚拟处理器的性能表现,我们估计这跟实际的网卡不是Intel网卡而是Broadcom网卡有关。


IT168评测中心观点
4 i0 g6 p' r  n$ |8 t  我们的测试表明,就网络带宽上,Intel E1000方式性能更好,不仅单网卡性能比vmxnet方式高10%~15%,而且可以利用链路聚合、负载均衡等高级功能。. {$ g& j- P+ ?) l
  我们也注意到VMware ESX Server使用的是自己的网卡驱动程序,虽然ESXServer底层操作系统和Linux很像,然而驱动程序无法直接共用,因此在不同的网卡的支持程度可能会很有不同。我们认为即使是通过了VMwareESX Server认证的网卡上,也是Intel E1000方式性能更好。
8 y7 l  `. y" {# c# ^4 y" M

在我们的实验环境下,VMware ESX Server采用Intel E1000网卡提供的带宽更高

 楼主| 发表于 2010-12-20 13:28:05 | 显示全部楼层
在VMWare中安装Linux时发现无法使用eth-tool,mii-tool等工具查询网卡的信息,导致一些程序都不能工作,其实是虚拟网卡的问题。
    一直以来,VMware都在虚拟客户机中提供的是古老的AMD PCNet10/100Mbps虚拟网卡,后来,VMware通过一种类似部分虚拟化的vmxnet优化虚拟网卡的方式提供了10/100 /1000Mbps性能,无疑性能更好。现在,VMware ESX Server已经可以提供基于Intel E1000的千兆虚拟网卡,从兼容性和性能的角度来看,E1000都是更好的选择。但似乎,在ESX/ESXi 3.5的图形界面中,都无法直接选择该网卡类型,需要手动配置。
 楼主| 发表于 2010-12-20 13:32:19 | 显示全部楼层
在VMWare中安装Linux时发现无法使用eth-tool,mii-tool等工具查询网卡的信息,导致一些程序都不能工作,其实是虚拟网卡的问题。

    一直以来,VMware都在虚拟客户机中提供的是古老的AMD PCNet10/100Mbps虚拟网卡,后来,VMware通过一种类似部分虚拟化的vmxnet优化虚拟网卡的方式提供了10/100 /1000Mbps性能,无疑性能更好。现在,VMware ESX Server已经可以提供基于Intel E1000的千兆虚拟网卡,从兼容性和性能的角度来看,E1000都是更好的选择。但似乎,在ESX/ESXi 3.5的图形界面中,都无法直接选择该网卡类型,需要手动配置。

一、为什么要用E1000
原有很很多,其中最主要的有两个:
1、PCNet32 网卡太古老
这个古老的意思是,该网卡已经不适应新操作系统的要求了。而且也不支持mii-tool等检测工具,过去用虚拟客户机测试HA集群时,就无法监控虚拟的PCNet32 网卡。
甚至在 Linux kernel的默认配置中,都需要费一番功夫才能找到该网卡的编译模块选项。
2、性能
现在的服务器基本都提供千兆的网卡,若虚拟客户机中仍只提供100Mbps虚拟网卡,性能肯定会降低的。
另一方面,vmxnet与E1000的对比中,也会发现E1000的效率更高,见 这里 。
因此,建议把虚拟客户机中的网卡设置为Intel E1000类型。



二、指定网卡类型

2、默认配置
在Linux中,为PCNet32 网卡:

引用
# lspci -v
00:11.0 Ethernet controller: Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE] (rev 10)
        Subsystem: Advanced Micro Devices [AMD] PCnet - Fast 79C971
        Flags: bus master, medium devsel, latency 64, IRQ 177
        I/O ports at 1400 [size=128]
        [virtual] Expansion ROM at 50000000 [disabled] [size=64K]
# cat /etc/modprobe.conf|grep eth
alias eth0 pcnet32
# ethtool eth0
Settings for eth0:
        Current message level: 0x00000007 (7)
        Link detected: yes
# mii-tool eth0
SIOCGMIIPHY on 'eth0' failed: Operation not supported

3、修改配置
若希望把虚拟网卡类型改为Intel E1000,直接修改对应虚拟客户机的.vmx文件:

先关闭VMWare WorkStation,不然修改会被覆盖


加入或修改:

ethernet0.virtualDev = "e1000"

保存即可。若有多个网卡,采取同样的操作。

值为"e1000"指定网卡类型为Intel(R) PRO/1000
值为"vlance"指定网卡类型为AMD PCNet AM79C970A(默认为此项)

值为"vmxnet"指定网卡类型为VMware PCI Ethernet Adapter

重启虚拟客户机后,可看到结果:

引用
# lspci -v
00:13.0 Ethernet controller: Intel Corporation 82545EM Gigabit Ethernet Controller (Copper) (rev 01)
        Subsystem: VMware Inc Abstract PRO/1000 MT Single Port Adapter
        Flags: bus master, 66MHz, medium devsel, latency 0, IRQ 193
        Memory at f4840000 (64-bit, non-prefetchable) [size=128K]
        Memory at f4810000 (64-bit, non-prefetchable) [size=64K]
        I/O ports at 14c0 [size=64]
        [virtual] Expansion ROM at 50010000 [disabled] [size=64K]
        Capabilities: [dc] Power Management version 2
        Capabilities: [e4] PCI-X non-bridge device
# cat /etc/modprobe.conf|grep eth
alias eth0 e1000
# ethtool eth0
Settings for eth0:
        Supported ports: [ TP ]
        Supported link modes:   10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Supports auto-negotiation: Yes
        Advertised link modes:  10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Advertised auto-negotiation: Yes
        Speed: 1000Mb/s
        Duplex: Full
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: on
        Supports Wake-on: d
        Wake-on: d
        Current message level: 0x00000007 (7)
        Link detected: yes
# mii-tool eth0
eth0: negotiated 100baseTx-FD, link ok




下面是VMware Guest Operating System Installation Guide中的一段内容:
The AMD Ethernet card driver included with certain Windows Vista builds—including 4074 and possibly others—does not work correctly or is not included with Windows. To use networking in these Windows Vista guest operating systems, you must change the network adapter. A driver for the vmxnet adapter is included in VMware Tools.
VMware GSX Server: Choose VM > Settings > Network Adapter (Windows) or VM > Settings > NIC (Linux), and select vmxnet as the virtual device to use. Then install VMware Tools. A driver for the vmxnet adapter is included in VMware Tools.
VMware Workstation 4.x or lower, or VMware ACE, on a Windows host: Use a text editor such as Notepad to edit the configuration (.vmx) file for your Windows Vista virtual machine. Add the following line:
Ethernet[n].virtualDev = "vmxnet"
Replace [n] with the number of the Ethernet adapter. The first Ethernet adapter is number 0, so the line for that adapter is
Ethernet0.virtualDev = "vmxnet"
Include a line for each Ethernet adapter configured for the virtual machine. Then install VMware Tools. A driver for the vmxnet adapter is included in VMware Tools.
VMware Workstation 4.x or lower on a Linux host: Choose VM > Settings, select Network Adapter, and then select vmxnet as the virtual device to use. Then install VMware Tools. A driver for the vmxnet adapter is included in VMware Tools.
VMware Workstation 5.0.x: Install VMware Tools. A driver for the network adapter is included in VMware Tools.
VMware Workstation 5.5.x and VMware Server 1.x: Install VMware Tools. A vmxnet driver for the network adapter is included in VMware Tools. Installing VMware Tools automatically switches the network adapter to vmxnet, and installs the vmxnet driver.
Alternatively, you can change the network adapter to e1000 (the Intel® PRO/1000 MT Adapter) before installing Windows Vista. Use a text editor such as Notepad to edit the configuration (.vmx) file for your Windows Vista virtual machine. Add the following line:
Ethernet[n].virtualDev = "e1000"
Replace [n] with the number of the Ethernet adapter. The first Ethernet adapter is number 0, so the line for that adapter is
Ethernet0.virtualDev = "e1000"
Include a line for each Ethernet adapter configured for the virtual machine.
ESX Server 2.x: In the Hardware page, under Network Adapter, click Edit. In the Network Adapter page, in the Device Binding list, select the virtual network device that you want the virtual machine to use. In the Virtual Device list, choose vmxnet. Then install VMware Tools. A driver for the vmxnet adapter is included in VMware Tools.
ESX Server 3.x: Install VMware Tools. A vmxnet driver for the network adapter is included in VMware Tools. Installing VMware Tools automatically switches the network adapter to vmxnet, and installs the vmxnet driver.
Alternatively, you can change the network adapter to e1000 (the Intel® PRO/1000 MT Adapter) before installing Windows Vista. Use a text editor such as Notepad to edit the configuration (.vmx) file for your Windows Vista virtual machine. Add the following line:
Ethernet[n].virtualDev = "e1000"
Replace [n] with the number of the Ethernet adapter. The first Ethernet adapter is number 0, so the line for that adapter is
Ethernet0.virtualDev = "e1000"
Include a line for each Ethernet adapter configured for the virtual machine.
 楼主| 发表于 2010-12-20 15:43:15 | 显示全部楼层
VMWare ESX Server性能优化
vmware ESX server 是当前服务器市场上基于intel平台的最流行的虚拟软件产品。对比其他虚拟软件产品,如 GSX server 和ms virtual server,ESX的最大优点就是可以大大减少host系统所占用资源的。ESX server内核直接运行在硬件之上,而且系统稳定性和性能都有很大的提高。  


ESX server也很适合企业级应用,因为它支持重要的冗余功能,比如多路经,以及链路绑定。由于有诸如p2v vmotion 和virtualcenter软件的支持,ESX server 非常适合企业部署  
注意 此章节是按照ESX server 2.1.0来介绍的。对于其他版本的ESX server这些方法不一定都可以通用。  


介绍  
对于大型的ESX server系统来调整性能是一件非常艰巨的任务。ESX server可以在硬件上承载非常大的负载。根据负荷量以及所运行虚拟系统的数量。服务器的一些子系统可能会达到性能瓶颈。因此非常重要的一件事情就是要评估设计以及配置硬件系统,来保证不会出现系统瓶颈。  
理解ESX server仅仅会虚拟化你的负载这个概念很重要,他的意思是说实际上你需要根据原先的计划来调整ESX server系统。虚拟化很多基础服务器或者终端服务器会对你配置你系统的方法产生巨大影响。另外需要明白ESX server是虚拟化当前的硬件。你还需要根据不同的虚拟操作系统来做相应的系统性能调整。  


理解Vmware性能概念  
在讨论调整ESX Server性能之前,理解虚拟化对性能带来的影响是很重要的。ESX server虚拟化硬件,而且提供在一个物理机器上运行多个虚拟操作系统的环境。  
默认情况下,对于硬件的访问,比如硬盘,网络,每一个虚拟机器有同等的权利。通常不希望看到一个虚拟系统吃掉了其他虚拟系统所有可用的资源。比如有一个服务器连接了一个SAN存储,提供了250MBps带宽。如果安装了ESX server,创建了一个虚拟机器测试输出,一般只有 25-50MBps输出这么少,是不是ESX server性能很差?现在,创建另一个虚拟机器,同时运行测试,每一个虚拟系统都可以达到 25-50MBps,你可以继续这个测试,一直到ESX server内核或者SAN网络产生瓶颈。从这个例子中可以看出ESX server设计上来说是尽量考虑并行可扩展性,而不是某一个虚拟机器的高性能。如果你的应用确实需要某一个子系统的高性能负荷,你最好不要把这个应用放到ESX server 上来。然而如果你有很多服务器应用但是每个都不是对i/o和cpu要求很高,使用ESX server确实可以节省硬件以及软件的费用。有些应用程序运行的性能可以和本地运行媲美。  

硬件布局  

在xserver上配置ESX server的时候,你可以有很丰富的硬件选择,从2路机器到16路机器64G内存,并且联接SAN存储。因此,可以做出一个非常好的解决方案,当然硬件的配置是要看自身的需求才有意义。  
对于ESX server,硬件子系统容易出现瓶颈的地方通常是:内存 磁盘,网络  
在虚拟机器中的典型应用比如ESX server通常不会造成cpu的瓶颈。为了避免内存瓶颈的产生。尽量选择高前端总线的系统。 ESX server对于cpu到内存以及i/o到内存的操作很频繁。他们都会利用前端总线。另外尽量加大内存,来避免交换分区的产生影响性能。注意,内存的需要量是由各个虚拟机器上运行的应用程序需求来决定的。  


提示:如果配置445 440,需要每一个SMP板上的内存容量相同。如果不同的话,会影响性能。  
同内存同等重要的就是磁盘系统的调整,对于ESX server磁盘系统的影响尤为重要。承载ESX server内核,以及内核映像,以及控制台系统文件的磁盘来说应该配备raid1的保护  
我们不推荐利用板载lsi作raid,推荐用5i 6i 6m卡,因为板载的lsi的cpu很慢,没有缓存,没有电池保护,因此不建议应用在生产环境  
对于VMFS存储,我们推荐用可以用到的最好的存储设备来承载。比如:用很多磁盘作raid,磁盘越多,性能越好,尽量用10k或者15k的硬盘。如果用scsi,用u320的磁盘,使用高性能的raid控制器,比如6m,ds4300光纤控制器。使用raid10配置最大的stripe大小。对于serveRaid,使用64k 光纤通道用512k或者1MB  
VMFS文件系统使用的block大小就是1MB所以尽量的配合他的大小。如果用光纤存储比如告诉HBA卡比如fc2-133。本身配置SAN 存储已经是一个非常复杂的任务了,但请尽量给ESX server划分单独的存储分区同。总的来说,调整磁盘系统是一个非常复杂而且耗时间的工作,需要分析利用以及系统负荷,来调整性能。  


提示:如果你对ESX server在ds4000上部署非常感兴趣,可以参考红皮书SG24-6434-00  
对于网络配置,我们建议至少有2个千兆网卡(不要共享给控制台系统)网络配置依据于网络布局,比如如果交换机是10/100m那么配置多个1000m网卡也就没有意义了。根据网络布局,最好把ESX server连接到一个高速交换机,并可以支持网卡绑定功能。  
cpu子系统需要根据所有的虚拟机器以及加上额外的10%-20%的复合计算的。因为ESX server支持到16路cpu,可以很容易在445上部署,请注意,不应该只考虑性能调整,你还应该考虑冗余等问题  
提示:ESX server支持超线程,如果是2.1.2版本的话,推荐启用HT。不过如果用的是2.1.0,强烈建议禁用超线程。需要在bios,以及ESX server内核中都禁用。  


vmware磁盘分区  
在ESX server中,你需要明确集中不同的磁盘存储类型:  
存储虚拟系统的存储ESX server内核,交换文件,日至文件的,以及控制台系统  

虚拟机器运行在VMFS系统上,通常来说,由ESX server默认设置的安装方法已经非常合适,不需要更多的优化了。以下是一个典型的磁盘存储布局(带SAN存储)  
/dev/sda1 * 1 6 47974+ 83 Linux /boot  
/dev/sda2 7 325 2552319 83 Linux /  
/dev/sda3 326 516 1528191 82 Linux swap  
/dev/sda4 517 4442 31411926 f Extended partition  
/dev/sda5 517 4429 31307881+ fb VMFS  
/dev/sda6 4430 4442 103981+ fc VMFS for core dump and swap  
/dev/sdb1 1 17681 142022601 fb VMFS for virtual machines  


注意控制台交换分区的大小是控制台建议最大内存的2倍。这样就允许你添加更多的内存给您的server,你也可以设置这个分区是实际应用内存的2倍  
在外部存储上,如果存储设备非常大,建议配置多余一个的VMFS文件系统。虽然可能损失一些性能,但是可以保证万一一个VMFS坏掉了,还有其他的可以工作。注意,如果在小磁盘上划分了多个VMFS的话,系统性能会下降很多,因为磁头会来回的在两个VMFS系统之间移动。  


调整控制台系统  
因为控制台系统是一个非常微小的redhat系统,控制台的调整空间也就很小。通常来说,控制台系统不需要调整。系统已经运行在3模式下,而且必要的服务已经启动。  
唯一个可以对性能有一点提高的就是禁用一些虚拟控制台。可以再/etc/inittab种注释掉tty4 tty5 tty6  
例子  


# Run gettys in standard runlevels  
1:2345:respawn:/usr/sbin/vmkstatus tty1  
2:2345:respawn:/sbin/mingetty tty2  
3:2345:respawn:/sbin/mingetty tty3  
#4:2345:respawn:/sbin/mingetty tty4  
#5:2345:respawn:/sbin/mingetty tty5  
#6:2345:respawn:/sbin/mingetty tty6  

  

请注意,在控制台系统上如果安装ibm director agent会很影响性能的,因为它是基于java的。如果一定要安装 director agent请额外给控制台系统添加至少50MB的内存。如果有其他的agents,要相应添加内存.虽然控制台系统没有更多的参数配置,但是如果ESX server承载60个以上的虚拟系统或者在重负载的情况下,有一些情况是需要了解的。这种情况下,特别是承载web服务的时候,控制台系统会非常的慢。这时候可以到管理工具里面增加控制台的内从容量到500MB-800MB,同时考虑到ibm director的影响。  
如果vmware的管理借口仍然很慢,更改http进程的优先全县。登陆进入控制台系统,检查进程id  
ps -axw |grep http  


输出入下,可以看到httpd线程的id是1431,现在便可以调整优先权限了  
renice -10 -p 1431  
[root@xseries01 root]# ps -axw  
PID TTY STAT TIME COMMAND  
1 ? S 0:03 init  
1431 ? S 0:00 /usr/lib/vmware-mui/apache/bin/httpd -DSSL  
-DSSL_ONLY -DSTANDARD_PORTS -DESX -d /usr/lib/vmware-mui/apach  
1166 pts/0 R 0:00 ps -axw  
[root@xseries01 root]# ps -p 1431  
PID TTY TIME CMD  
1431 ? 00:00:00 httpd  
[root@xseries01 root]# renice -10 -p 1431  
1431: old priority 0, new priority -10  

这样httpd的权限已经得到了调整,相反的可以用-15减少httpd 的优先权限  
除了给httpd增加cpu时间之外,也可以调整为web服务保留的内存,如果有80个虚拟系统,要把默认的内存保留从24MB调整到更高,可以调整实际共享的内存,利用配置文件/etc/vmware/config ,例如从24MB提高到28MB 如下  
control.fullpath = "/usr/bin/vmware-control"  
wizard.fullpath = "/usr/bin/vmware-wizard"  
serverd.fullpath = "/usr/sbin/vmware-serverd"  
serverd.init.fullpath = "/usr/lib/vmware/serverd/init.pl"  
# The setting below increases the memory shares available for the httpd  
mui.vmdb.shmSize = "29360128"  
renice命令会即时生效,但内存的扩大需要重新启动httpd服务  
killall -HUP httpd  
为了确保可以在重负荷下登陆控制台,推荐把vmware联结超时的时间从30秒提高到更高的数值。可以通过修改/etc/vmware/config

vmware.fullpath = "/usr/bin/vmware"  
control.fullpath = "/usr/bin/vmware-control"  
wizard.fullpath = "/usr/bin/vmware-wizard"  
serverd.fullpath = "/usr/sbin/vmware-serverd"  
serverd.init.fullpath = "/usr/lib/vmware/serverd/init.pl"  
mui.vmdb.shmSize = "29360128"  
# The setting below increases the login timeout to 2 minutes  
vmauthd.connectionSetupTimeout = 120  
也可以可以提高vmware-服务的内存限制,因为这个操作涉及到vmware线程,因此需要停掉所有虚拟机器才可以完成。修改/etc/vmware/config 提高软内存从64MB到96MB  
vmware.fullpath = "/usr/bin/vmware"  
control.fullpath = "/usr/bin/vmware-control"  
wizard.fullpath = "/usr/bin/vmware-wizard"  
serverd.fullpath = "/usr/sbin/vmware-serverd"  
serverd.init.fullpath = "/usr/lib/vmware/serverd/init.pl"  
mui.vmdb.shmSize = "29360128"  
vmauthd.connectionSetupTimeout = 120  
# The line below will alter the soft memory limit  
vmserverd.limits.memory = “65536”  
# The line below will alter the hard memory limit  
vmserverd.limits.memhard = “98304”  
当完成编辑后,需要重新启动vmware-serverd服务  
shutdown -r now  
或者  
killall -HUP vmware-serverd  
注意:需要事先关闭所有的虚拟操作系统  
vmware内核调整  
vmware内核有很多可以调整的选项,可以有效影响整个的系统性能。这里列举一些最重要的ESX server内核参数调整  
页面文件共享  

ESX server利用一个算法来共享同等的内存页面在各个虚拟机器之间,从而可以减少系统的内存使用。页面共享对系统有很小的影响,甚至会加快页面查询的速度。页面共享可以得到的好处跟系统负载有很大的关系。  
我们推荐允许页面共享,不过如果一定要禁用页面共享来提高性能,可以修改/etc/init.d/vmware文件,在-n前添加-m,参看例子  
Disabling page sharing — /etc/init.d/vmware  
“cd”$vmdb_answer_SBINDIR”&&  
“$vmdb_answer_SBINDIR”/”$kernloader”-m -n”$maxCPU”  
“$vmdb_answer_LIBDIR”/”$kernel’||exit 1”  
禁止页面共享,会增大内存的需求(虚拟系统是linux的要小于window虚拟系统的增加)  
设置网络速度  
最好把ESX server上所有的网卡的协商模式从自动协商更改成全双工。所有相关的交换机都要做相应的设置。

可以设置控制台网卡的速度通过/etc/modules.conf  
Setting the network adapter speed — /etc/modules.conf  
alias parport_lowlevel parport_pc  
alias scsi_hostadapter aic7xxx  
alias eth0 e100 e100_speed_duplex=4  
alias scsi_hostadapter ips  
#alias eth1 eepro100  
alias scsi_hostadapter1 aic7xxx  
alias scsi_hostadapter2 aic7xxx  
#alias usb-controller usb-ohci  
alias scsi_hostadapter ips  
alias scsi_hostadapter ips  


具体设置的参数是可以参看网卡驱动的readme文件  
你也可以通过管理借口来设置网络速度还有双工模式,root登陆到管理界面,在网络连接菜单设置属性  

调整qlogic卡  

qlogic的HBA卡提高队列深度,可以大大的提高性能,默认的队列深度的数值是16,试验证明,如果设置成64可以提高性能(实际的队列深度可能会因为不同的配置有所不同)  
队列深度可以在/etc/vmware/hwconfig文件中调整,搜索device.x.x.x.name = “QLogic Corp QLA2300 64-bit FC-AL Adapter (rev 01)" (根据不同情况数字可能不同)  
device.7.3.0.class = "0c0400"  
device.7.3.0.devID = "2300"  
device.7.3.0.name = "QLogic Corp QLA2300 64-bit FC-AL Adapter (rev 01)"  
#下面添加队列深度  
device.esx.7.3.0.options = "ql2xmaxqdepth=64"  
#老版本ESX server添加如下  
device.vmnix.7.3.0.options = "ql2xmaxqdepth=64"  
device.7.3.0.subsys_devID = "0009"  
device.7.3.0.subsys_vendor = "1077"
device.7.3.0.vendor = "1077"  
NUMA 调整  
ESX Server可以很好的支持目前的NUMA系统,包括x445,如果已经按照p329页提到的硬件布局优化系统,系统已经是比较好配置的了。但是,如果服务器的负载需要特定的cpu群体,(比如让某个虚拟服务器工作在特定的NUMA节点上,如445上的一个smp板)可以利用VMware 管理接口手工把特定的NUMA节点分配给虚拟服务器。  
当16路445运行64个虚拟服务器的时候,你应该每一个4路smp节点分配16个虚拟服务器,这样内存均衡的分配会根据cpu的物理位置进行优化配置,也就是在一个NUMA节点上运行的虚拟服务器不会用另一个NUMA节点上的内存。  

VMware内核交换调整  

vmware内核的内核交换机制可以实现在一个机器上运行非常多个虚拟服务器。然而,当系统开始利用交换机制的时候,磁盘I/O会有一些负载的增加。  
为了优化性能,需要紧密观察VMware内核的交换文件,当vmware内核开始利用交换机制把数据写到硬盘的时候,你就应该减少虚拟服务器的数量,或者安装更多的内存了。通常在理想的情况下,在正常工作的时候,不要让系统开始利用交换文件。为了让交换文件带来的影响最小,建议把交换文件放到 VMFS分区  

注意:如果在IDE硬盘的刀片上安装ESX server,你只能把交换文件放到外部存储,因为VMFS文件系统不支持IDE设备  
提醒:多注意观察/proc/vmware/swap/stats中交换数值的大小,做好让他保持在0  


虚拟服务器的调整  
相对于非常不错的默认的VMware内核参数,调整虚拟服务器可以更好的获得性能提升,根据虚拟服务器的负载,本章节的一些提示可以很大程度上改善虚拟服务器的性能。  
这里要注意的是,任何在虚拟服务器内的性能调整,都可以在整体上对整个服务器的性能有好处。  
提示:建议在虚拟服务器内部安装 vmware 工具,以及相应的驱动,这样可以提高性能减少整个ESX server的负载  
调整虚拟服务器内存位置  


当创建了一个新的虚拟服务器,会要求选择内存的大小,就像安装一个独立的服务器一样。
如果你给你的虚拟服务器制定了一个数量的内存,而系统和应用程序需要更多内存的时候,交换文件就会产生。  
通常情况,交换文件的产生是很糟糕的,相比快速的内存访问,硬盘的存取要慢的很多,因此,建议内存容量的大小,要根据操作系统以及运行的应用程序的共同需求来计算。可以利用系统的监控工具来监控虚拟服务器的内存使用状况,公举可以参看p343  


ESX server提供了很多调整内存的分配的方法  
可以随时按照虚拟服务器的需求来分配内存,没有用的内存则共享给其他的虚拟服务器。虽然调整内存的大小很容易,但需要注意,每一次的调整,虚拟服务器都需要重新启动虚拟的操作系统。  
虚拟服务器可以创建2种类型的虚拟磁盘控制器。Buslogic是默认的,特点是兼容性很好,支持广泛的操作系统。  


Buslogic驱动支持所有的guest系统,可以操作1kb小的文件,如果你的应用程序确实有很多这样的小文件,这个驱动确实不错,但这个驱动不是提高性能的最好选项,如果关心性能,强烈推荐使用lsi驱动,这样尤其对大文件可以大幅度提高性能,不过很多操作系统不一定支持这个驱动。 vmware提供了软盘映像来满足linux和windows系统添加驱动的问题。  
禁用不使用的设备  


ESX server 提供了丰富的虚拟硬件,但多数时候,很多这些设备其实没有什么用处,比如说apache服务,cdrom只用来第一次装系统用,以后完全没有用,串口和并口更是根本用不到。windows会一次次的与这些设备通讯。这些动作会占用很多的cpu时间,甚至有时候会导致系统反映缓慢。通常情况下,需要禁用以下不常用的设备:com1 com2 lpt1 cdrom(禁用cdrom自动运行)  
提示:windows2003下可以用以下方法禁用cdrom自动运行  
编辑注册表  
HCCU/Software/Microsoft/Windows/CurrentVersion/  
Policies/Explorer  
设置 NoDriveTypeAutoRun 成为0x000000FF  
网卡驱动  
ESX server提供每一个虚拟服务器的默认的网卡类型是AMD PCNet卡,所有的客户操作系统都支持这个网卡,兼容性很好,相比之下性能稍差,但当安装vmwaretool之后,因为更新了新的驱动,所以网卡性能会有很大的提高。  
提示:如果网卡遇到问题,可以考虑切换回老的amd网卡,来排除错误。  
调整终端服务器  
虚拟服务器当运行很多线程的时候,比如终端服务器,可以通过规定虚拟服务器中的负载量来得到额外的性能提升。  
调整虚拟服务器负载量需要打开管理接口,设置服务器如图所示范。即使服务器被设置成终端服务器,这个设置会可以加速其他其他运行多个同步线程的服务器。  
当改变了设置之后,需要重新启动虚拟操作系统使得配置生效  
提示:ESX server 1.52 和2.0.1如果设置的话,需要打开配置文件直接添加  
workload=terminalservices

 楼主| 发表于 2010-12-20 15:45:39 | 显示全部楼层
在VMware ESX中部署Citrix Presentation Server的几点性能优化建议
三月 30, 2010 by admin · Leave a Comment

VN:F [1.8.7_1070]






please wait...



Rating: 5.0/5 (2 votes cast)



如果你计划在VMware ESX环境中部署Citrix Presentation Server(即Citrix XenApp),那么很有可能将会遇到一些性能问题,怎么样能够获得最佳的性能表现呢?下面是我们的几点建议,请供参考!

1)使用正确的VMware平台
应该使用VMware ESX(现在叫vSphere),而不要使用VMware Server或GSX Server。
2)不要创建过多的Citrix Presentation Server虚拟机

例如:一个20G内存、双路四核CPU的ESX服务器不应该支持超过4个双vCPU、4G内存的Citrix Presentation Server虚拟机。所以,最好的情况是你应该创建一个独立的ESX Cluster来运行Citrix Presentation Server,而不是与其他应用负载混合在一起。


3)设置虚拟机Reservations
设置100%的CPU和RAM reservations。这样不仅可以确保第2条中的资源分配,同时,当虚拟机被关闭然后重启的时候就不再用到虚拟交换文件了。
4)避免I/O瓶颈
Citrix Presentation Server属于I/O密集型负载,应该注意确保所有I/O环节能够满足吞吐需求,避免瓶颈,比如把Citrix Presentation Server虚拟机放在配置了RAID 10 的VMFS文件系统中。通常建议使用光纤存储,而尽量避免在生产环境中使用SATA存储。
5)合理的分配资源
Citrix Presentation Server也是CPU密集型负载,需要双路处理器。建议每个虚拟机配置:
- 2个vCPU
- 4GB的内存
- 单SCSI控制器(SCSI IDs 0:0, 0:1, 0:2…)  注:多个SCSI控制器会造成CPU利用率高
- 删除软驱设备
6)横向扩展,而不是纵向
只需要给每个Citrix Presentation Server虚拟机4G内存就够了。因为没有破解的32位Windows系统不能使用超过4G以上的内存,所以如果用户需求足够大的话,应该使用更多(横向)的Citrix Presentation Server虚拟机来提供服务,而不是使用更大容量(纵向)的虚拟机。
7)不要安装所有VMware Tools组件
不要安装那些影响性能的VMware Tools组件,包括:
- Memory Control Driver (vmmemctl – reclaims memory using the balloon driver)
- Descheduled Time Accounting (experimental)
- Filesystem Sync Driver (LGTO_SYNC – can halt I/O disrupting services/users)
- Shared Folders (vmhgfs – not supported on ESX)
使用下面的命令行能够完成自动去除以上服务:
msiexec -i “VMware Tools.msi” ADDLOCAL=ALL REMOVE=”Hgfs,MemCtl,Sync,vmdesched” /qn reboot=suppress
8)及时安装ESX补丁
ESX 3.5已经发布了一些补丁用于提高Windows虚拟机的性能,及时更新补丁无论如何都是一个好的实践。
9)监控CPU Ready时间
在esxtop中监控CPU Ready(%RDY)时间,通常应该低于5%,如果高于5%则很可能是主机资源超负荷了。
10)沿用标准的Citrix性能优化方法
继续使用过去在物理服务器环境中优化Citrix服务器的所有标准性能优化方法,例如:
- NtfsDisableLastAccessUpdate
- DisablePagingExecutive
- DisableDHCPMediaSense
- MaxCmds的
- MaxThreads
- MaxCollectionCount
11)调整和优化分区
根据VMware分区调整官方手册,调整和优化VMFS和NFTS的和文件系统分区。
手册见:http://www.vmware.com/pdf/esx3_partition_align.pdf
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|boway Inc. ( 冀ICP备10011147号 )

GMT+8, 2024-6-19 21:30 , Processed in 0.115021 second(s), 16 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表