云平台性能测试报告

2024-05-13

云平台性能测试报告(精选9篇)

篇1:云平台性能测试报告

致力于最TOP的IDC服务商

鹰云服务器性能测试报告

如今服务器的类型是越来越多,而大多数站长们最为关心的除了价格之外就是其服务器的性能,所以笔者带着大家最关心的问题为大家带来了今天的文章,在以下的内容中,笔者使用群英网络新推出一款鹰云服务器为大家进行CPU、内存、硬盘等方面的性能进行测试,通过测试看看鹰云的性能到底如何?接下来就让我们一起进入鹰云的测试之旅。

首先,我们来看看此次参加测试的鹰云服务器,作为一款高性能服务器,鹰云配备了Intel至强四核八线程CPU、三星3D V-NAND 闪存和新一代主控芯片硬盘。

本次用于测试是标价为399元的鹰云,其配置了4 核、8G 内存、SSD128G 硬盘、10M 带宽。

1、在标准鹰云8G版,在部署 Windows 系统环境下,测试出来的性能结果是其它同类产品无法比拟的!

群英鹰云性能测试图表

2、鹰云服务器使用的服务器专用的Intel网卡在CPU、芯片协同工作

致力于最TOP的IDC服务商

测试结果表明鹰云的网络质量更为出色

3、网络延迟Ping 值测试

对指定IP地址发送大量的数据包,以测试网络在高负荷情况下的运作情况。测试时间待续72小时(每24小时互换端口、网线)鹰云的网卡表现更低的延迟,并更稳定!

4、网卡满负载的情况下CPU 占用情况测试

对指定IP地址发送大量的数据包,以测试网络在高负荷情况下的运作情况。测试时间待续72小时(每24小时互换端口、网线)

在用大量数据使网卡满负载的情况下,鹰云的CPU使用更低,更平稳!

致力于最TOP的IDC服务商

总结:

通过以上的测试可以看出,作为目前群英网络最新发布的服务器,鹰云在配置上可以说是相当出色了,并且配以399元/月的价格,其性价比是目前市场上最高的一款租用服务器。值得广大站长、企业租用。

此文由群英网络(http:///)整理提供。

篇2:云平台性能测试报告

服务器软件:nginx/1.02.12

端口:80

一共测试了两次:

并发级别:10

完成请求:1000

完成时间:67.009 seconds

吞吐率:14.92/s 每秒相应14.92个请求

用户平均请求等待时间:670.088 毫秒

服务器平均请求等待时间 67.009 毫秒

每个请求处理时间的分布情况,50%的处理时间在552ms内,66%的处理时间在594ms内。Percentage of the requests served within a certain time(ms)

50%552

66%594

75%647

80%692

90%877

95%1018

98%3503

99%3596

100%3930

并发级别:100

完成请求:10000

完成时间:711.398 seconds

吞吐率:14.06/s 每秒相应14.92个请求

用户平均请求等待时间:7113.977 毫秒

服务器平均请求等待时间 71.140 毫秒

每个请求处理时间的分布情况,50%的处理时间在6011ms内,66%的处理时间在6454ms内。

Percentage of the requests served within a certain time(ms)

50%6011

66%6454

75%7220

80%7566

90%9422

95%12017

98%20382

99%28455

篇3:云平台性能测试报告

随着互联网的高速发展,计算机软件已经进入互联网时代,互联网应用的开放性以及用户规模的扩展性使得对软件性能的要求越来越高,对软件进行高质量的性能测试成为一种迫切需求。性能测试是一种典型的计算密集型任务,随着软件的应用范围变广,业务逻辑日益复杂,进行性能测试所需的软硬件资源及维护管理成本急剧增加。许多应用软件具有急切的性能测试需求,但开发者却难以承担昂贵的投入代价。随着Google提出的云计算技术的迅速发展,测试技术与云计算技术的融合成为测试领域的一个研究热点,云测试的概念及应用应运而生。云测试通过将测试设备、工具等资源部署在云端,抽象为云服务提供给用户使用,形成了测试即服务(Testing as a Service,Taa S)的云服务模式。Taa S模式解决了进行性能测试所需的软硬件资源需求,开发者只需根据自身需求向云服务商支付少量使用费用,即可通过互联网接入云端,在云测试平台下设计并执行自定义的性能测试,大大降低了测试成本。

本文根据性能测试过程模型,分析了性能测试在云测试平台中的实现流程,并基于阿里云性能测试平台实现了对一个英语学习系统的性能测试过程。通过在云测试平台上进行性能测试,能够取得满意的测试效果,并且以云资源托管的方式节约了维护成本。

2通用性能测试过程模型

性能测试的作用不仅仅是发现缺陷和验证系统的性能特性,还需要分析系统瓶颈并进行相应的性能调优。因此,性能测试的测试过程与其它类型的测试相比存在一些差异,众多研究者在设计性能测试过程模型方面做了大量研究。国内行业界性能测试专家柳胜概括了性能测试的测试过程,提出了一个通用性能测试过程模型GAME(A),如图1所示。

GAME(A)模型将性能测试过程分为目标(Goal)、分析(Analysis)、度量(Metrics)、执行(Execution)、调整(Adjust)五个主要阶段,各阶段具体工作内容如下:

2.1目标

主要工作为明确测试目标。性能测试的目标存在多样性,除检验系统性能,找出系统性能瓶颈之外,还包括度量系统负载容量、定义最优硬件配置等。针对不同的性能测试目标应采取不同的性能测试策略,从而为后续的设计流程奠定基础。

2.2分析

针对具体的被测系统(System under Test,SUT)进行性能需求分析。以软件开发需求为基础,进行细化与分解,形成可测试的需求列表,确定性能指标。

2.3度量

设计具体的测试场景以及性能指标的基线。根据测试目标与测试需求,设计相应的测试场景;场景内容包括场景业务、负载模式、测试环境、运行模式、性能指标等。

2.4执行

运行场景并分析结果。根据测试场景采用测试工具进行脚本录制、编辑;运行脚本并对测试结果进行分析,根据性能指标的表现给出测试结论。

2.5调整

调整测试场景或修改SUT。如果测试结果表明系统性能未达到预期目标,需要进入调整阶段。一方面,判断测试场景设计是否合理,并进行相应修改;另一方面,说明系统可能存在性能缺陷,需要修改SUT,待修改完成后,执行回归测试。

3基于云平台的性能测试

3.1阿里云性能测试平台

阿里云性能测试平台(Performance Testing Services,PTS)是一个集测试脚本管理、测试场景管理、测试结果管理为一体的性能云测试平台,具有强大的分布式压测能力,能够模拟海量用户模式下的真实业务场景。PTS包含两个版本:Lite版面向全网用户免费开放,适合于业务流程和业务场景简单、需要快速获取测试结果的系统;企业版适合于承受大规模压力的系统,支持包月和按量付费两种计费方式,面向企业客户。

从云服务提供方式划分,PTS属于Saa S模式,通过外部GUI接口供用户使用。用户通过提供SUT的域名指定测试对象,PTS中的控制消息服务器将任务消息传递给分布式压测集群,由其完成对SUT的测试过程。PTS的框架结构如图2所示。

3.2云平台下的性能测试过程

PTS提供环境管理、测试管理、结果管理三大功能模块实现GAME(A)模型表示的性能测试过程。其中,环境管理模块包含压测目标设置和监控集管理功能;测试管理模块包含生成性能测试脚本的模板模式和代码模式、测试场景设计、实时监控等功能;结果管理模块提供完善的测试结果报表和强大的性能分析图形展示。PTS的功能模块结构与GAME(A)模型的五个阶段的对应关系如图3所示。

遵循GAME(A)模型,采用PTS实现性能测试的完整流程如图4所示,具体步骤如下:

3.2.1添加压测目标

压测目标即SUT的入口IP地址或域名,其输入内容只需提供host:port,不需要输入http://、https://或者URL路径。PTS根据输入地址生成验证文件,用户需要下载此验证文件并上传到压测目标Web服务器的根目录下,通过访问PTS提供的验证地址确认压测目标可被访问。

3.2.2添加监控集

监控集为性能测试中需要监控的服务器集合。PTS提供了一个监控工具Radar,将其下载到需要监控的服务器并解压缩后,配置根目录下的server.properties文件,修改signature字段等于PTS用户设置中的用户标识。启动Radar后,即可完成对指定服务器集合的监控设置。

3.2.3脚本开发

PTS提供了模板视图与代码视图两种模式进行性能测试脚本的编写。模板模式是一种图像化脚本编写方式,用户可以通过拖拽式的操作完成测试内容的设计;代码模式提供了基于Python语言的编码环境,使用户能够通过修改代码的方式实现更加灵活的测试场景。此外,PTS还提供了一个基于Firefox浏览器的脚本录制插件工具firefox_pts_record_tool,通过该工具可以将对SUT的操作自动转化为测试脚本,只需要把录制生成的脚本代码拷贝到PTS代码模式的代码框中即可。

3.2.4场景设计

根据系统的性能需求设计具体的测试场景,包括业务内容、并发线程数、负载模式、执行时间等。

3.2.5实时监测

执行场景并实时动态的展示测试结果。

3.2.6统计报表

输出测试结果概要、汇总的各种测试结果数据报表、测试日志记录等。

3.2.7结果分析

提供包括事务成功和失败TPS、并发用户数、平均响应时间等业务性能指标的趋势分析图,CPU、内存、网络IO、磁盘IO利用率等服务器资源性能指标趋势分析图。

4应用实例

4.1测试需求分析与设计

英语学习系统是一个面向高校英语教学而开发的Web应用系统,系统具有丰富学习资源库与测试题库。在日常教学中,教师可以使用该系统发布作业,组织在线测试、学业考试,并进行教学管理;学生可以使用该系统进行英语自主学习,并完成教师发布的各项学习任务。作为一个典型的Web应用,英语学习习系统具有明显的性能测试需求,需要对大量用用户并发使用系统的各种场景进行性能测试。本本文选择“学生登录系统”场景为例实现在PTS中的性能测试过程,具体操作如下:

(1)将英语学习系统的访问域名添加为压测目标,并进行访问验证;

(2)在英语学习系统所在的应用服务器上安装监控工具Radar,监测服务器各项性能指标;

(3)将脚本录制工具firefox_pts_record_tool集成到Firefox浏览器中,启动插件服务,完成一次学生登录系统的录制,并将生成的脚本上传到PTS的测试脚本列表中;

(4)分别以500、1000、2000作为并发登录系统的学生数量设计测试场景,如表1所示。

4.2测试结果

在PTS中启动测试,分别执行3个测试场景,得到测试结果如表2所示。当并发用户数分别为500、1000、2000时,对应的平均响应时间分别为0.85秒、1.93秒、3.29秒,均小于预定的基准值,并且事务均成功执行,系统性能满足用户登录的容量需求。

5结论

在互联网时代,对网络应用进行性能测试不可或缺,但构建性能测试环境的软硬件成本及维护管理问题日益突出。云计算技术的发展使得性能测试的实施以服务的形式提供给用户,有效解决了开发者需要自己构建与维护测试资源的问题。通过对阿里PTS云平台进行结构分析,设计了采用PTS实现性能测试的过程模型;以英语学习系统为测试对象,给出了云测试过程的详细执行步骤。实践表明,采用成熟的云测试平台进行性能测试,显著降低了测试成本,是未来性能测试技术发展的趋势。

参考文献

[1]许国梁.软件开发的性能测试与研究[J].电子技术与软件工程,2015(18):47-48.

[2]夏骆辉,谭丽.云测试技术备受关注或将引发测试领域革命[J].世界电信,2011(05):69-72.

[3]李乔,柯栋梁,王小林.云测试研究现状综述[J].计算机应用研究,2012,29(12):4401-4406.

[4]肖明清,杨召,赵鑫.云测试的概念及其应用探索[J].计算机测量与控制,2016,24(01):1-3.

[5]邓璐娟,范乃梅,孙义坤,等.基于Web应用的性能测试模型研究[J].计算机工程与应用,2013,49(01):75-77.

[6]李霄,王常洲,田雅.计算机应用系统性能测试技术及应用研究[J].软件,2013,34(04):69-73.

[7]宋士涛,张佳佳,张燕,等.基于Web 2.0的系统性能测试技术研究[J].山东广播电视大学学报,2016(03):86-89.

篇4:云平台性能测试报告

QingCloud的企业客户对高性能计算的需求不断增加,同时需要消除如传统小型服务器系统遇到的不利因素。Nytro系列产品很好地解决了云供应商的痛点,该系列闪存卡集小外形、散热优化及超融合的设计于一身,可以很好地满足用户对于更高容量密度的需求。

青云QingCloud联合创始人&研发副总裁甘泉(Reno Gan)表示:“青云QingCloud专注于云计算产业的最前沿技术,为用户提供高效能、低成本以及保障业务连续性与安全性的云计算基础设施解决方案。希捷Nytro解决方案帮助我们大幅提升了系统的响应速度,降低了总体拥有成本,使我们可以帮助更多企业用户提升其IT系统资源的利用率,提供更为安全、便捷、稳定、优质的云服务。”

经过对比,QingCloud发现希捷Nytro系列产品比其他同类PCIe产品的响应时间更快,可以更有效地提升云应用所需的稳定性及性能,同时降低成本。Nytro系列的闪存加速卡集成了PCIe闪存技术与智能管理软件。

希捷公司闪存产品与客户管理副总裁Thad Omura表示:“目前,由于PCIe闪存的每GB成本相对较高,妨碍了众多企业使用基于PCIe的闪存产品。希捷Nytro系列产品结合了PCIe闪存的高性能与较低的总体拥有成本,克服了这一困难。青云QingCloud选用我们的Nytro系列产品,我们非常高兴,助力其进一步巩固中国领先基础云服务商的地位,为用户提供性能,更为优化的存储平台以及相关的云基础设施服务。”

市场调研机构IDC预测,无论是私有云还是公有云,未来云服务的年增长水平将达到30%,这对专门提供IaaS层的云服务供应商提出了更高的要求。

篇5:云平台性能测试报告

编制单位:北京智博睿投资咨询有限公司

第一章 大气污染环境治理物联网云平台项目总论 1.1 大气污染环境治理物联网云平台项目基本情况 1.1.1 大气污染环境治理物联网云平台项目名称 1.1.2 大气污染环境治理物联网云平台项目选址 1.1.3 大气污染环境治理物联网云平台项目承担单位 1.1.4 大气污染环境治理物联网云平台项目建设目标及定位 1.1.5 建设内容及规模 1.1.6 投资估算与资金筹措

1.1.7 大气污染环境治理物联网云平台项目建设期限 1.1.8 大气污染环境治理物联网云平台项目效益 1.1.9 主要技术经济指标 1.2 可行性研究依据与范围 1.2.1 报告编制依据 1.2.2 报告研究范围

1.3 可行性研究结论、问题及建议 1.3.1 研究结论 1.3.2 问题及建议

第二章 大气污染环境治理物联网云平台项目背景与建设的必要性 2.1 大气污染环境治理物联网云平台项目提出的背景 2.1.1政策背景

2.1.2 大气污染环境治理物联网云平台项目提出理由 2.2 大气污染环境治理物联网云平台项目建设的必要性

2.2.1 大气污染环境治理物联网云平台项目的建设符合国家和地方相关政策

2.2.2 大气污染环境治理物联网云平台项目的建设有利于保障经济圈建设的需要

2.2.3有利于提升XX市产业科技含量 2.2.4是增加当地就业机会的需要

第三章 大气污染环境治理物联网云平台项目建设地址和建设条件 3.1 大气污染环境治理物联网云平台项目选址 3.1.1 选址原则 3.1.2 场址选择 3.2 建设条件 3.2.1地理位置 3.2.2 自然气候条件 3.2.3 外部交通条件

3.2.4 大气污染环境治理物联网云平台项目施工条件

第四章 大气污染环境治理物联网云平台项目市场分析 4.1我国XX市场概况

4.1.1我国大气污染环境治理物联网云平台发展现状 4.1.2我国大气污染环境治理物联网云平台市场发展前景 4.2我国XXX市场概况 4.2.1我国XXX市场应用情况 4.2.2 XXX市场情况 4.2.3 XXX市场前景 4.3 XXX行业现状

4.4 大气污染环境治理物联网云平台项目定位分析 4.4.1 大气污染环境治理物联网云平台项目整体目标 4.4.2 大气污染环境治理物联网云平台项目服务群体 4.4.3 大气污染环境治理物联网云平台项目辐射商圈 4.5 大气污染环境治理物联网云平台项目SWOT分析 4.5.1 大气污染环境治理物联网云平台项目优势-S 4.4.2 大气污染环境治理物联网云平台项目劣势-W 4.4.3 大气污染环境治理物联网云平台项目机会-O 4.4.4 大气污染环境治理物联网云平台项目威胁-T

第五章 大气污染环境治理物联网云平台项目建设方案 5.1 建设原则 5.2 规划方案

5.2.1 大气污染环境治理物联网云平台项目发展思路 5.2.2 大气污染环境治理物联网云平台项目的产业业态规划 5.3 工程设计 5.3.1 建筑设计 5.3.2 结构设计 5.4 总图布置 5.4.1 总图布置原则 5.4.2 总平面布置 5.4.3 给排水工程 5.4.4 电气工程 5.4.5 暖通工程 5.4.6 消防设施 5.4.7 道路系统 5.4.8 绿化系统

第六章 环保、劳动安全与节能 6.1 环境保护

6.1.1 建设地点环境现状 6.1.2 主要污染源及污染物 6.1.3 环境保护标准

6.1.4 施工期主要污染源及治理措施 6.1.5 运营期主要污染源及治理方案 6.1.5 环境保护结论 6.2 劳动安全卫生 6.2.1 设计依据

6.2.2 职业安全卫生主要措施 6.3 节

能 6.3.1 设计依据 6.3.2 设计原则

6.3.3能源消耗与能耗分析 6.3.4 节能措施 6.3.5 节水措施

第七章 组织机构与人力资源配置 7.1 组织机构

7.2 人力资源配置与管理 7.2.1 人力资源配置 7.2.2 人员培训

第八章 大气污染环境治理物联网云平台项目管理、实施进度及招标 8.1 建设项目管理 8.1.1 实施原则与步骤 8.1.2 组织机构与分工 8.2 建设项目实施进度 8.2.1 施工进度安排 8.2.2 建设与运营的衔接 8.3 招标方案 8.3.1 概述 8.3.2 招标组织形式 8.3.3 招标方式 8.3.4 招标范围

第九章 投资估算与资金筹措 9.1 投资估算

9.1.1 投资估算依据和范围 9.1.2 投资估算构成分析

9.1.3 大气污染环境治理物联网云平台项目投资估算 9.2 资金筹措 9.3 资金投入计划

第十章 财务分析

10.1财务评价依据、范围及假设条件 10.1.1财务评价依据及范围 10.1.2假设条件

10.2基础数据及参数选取 10.2.1计算期及生产负荷 10.2.2基准收益率 10.2.3取费标准 10.2.4折旧和摊销 10.2.5税率 10.2.6公积金

10.3财务效益与费用估算 10.3.1销售收入估算 10.3.2生产总成本估算 10.3.3利润及利润分配 10.4财务分析

10.4.1财务盈利能力分析 10.4.2财务生存能力分析 10.5不确定性分析 10.5.1盈亏平衡分析 10.5.2敏感性分析 10.6财务评价结论

第十一章

社会影响评价 11.1社会影响分析 11.2互适性分析 11.3社会风险分析 11.4社会效益分析 11.5社会评价结论

第十二章

风险分析 12.1风险识别与评价 12.1.1主要风险 12.1.2其它风险 12.2风险对策

第十三章

社会稳定风险分析 13.1编制依据 13.2风险调查

13.2.1调查的内容和范围、方式和方法 13.2.2拟建项目的合法性

13.2.3拟建项目自然和社会环境状况 13.2.4利益相关者及基层组织的态度 13.3风险识别 13.4风险估计 13.5风险防范化解措施 13.6风险等级 13.7风险分析结论

第十四章 大气污染环境治理物联网云平台项目结论和建议 14.1 大气污染环境治理物联网云平台项目结论 14.2 大气污染环境治理物联网云平台项目建议

财务表: 表1:财务评价指标汇总表 表2:建设投资估算表(概算法)表2-1:土建工程投资明细表 表2-2:设备投资明细表 表3:建设期利息估算表 表4:流动资金估算表

表5:大气污染环境治理物联网云平台项目总投资使用计划与资金筹措表

表6:营业收入、营业税金及附加和增值税估算表 表7:总成本费用估算表(生产要素法)表7-1:外购原材料估算表 表7-2:外购燃料动力估算表 表7-3:固定资产折旧费估算表 表7-4:无形资产和其他资产摊销估算表 表7-5:工资及福利费估算表 表8:项目投资现金流量表

表9:大气污染环境治理物联网云平台项目资本金现金流量表 表10:利润与利润分配表 表11:财务计划现金流量表 表12:资产负债表 表13:借款还本付息计划表 关联报告:

大气污染环境治理物联网云平台项目可行性研究报告 大气污染环境治理物联网云平台项目建议书 大气污染环境治理物联网云平台项目申请报告 大气污染环境治理物联网云平台资金申请报告 大气污染环境治理物联网云平台节能评估报告 大气污染环境治理物联网云平台市场研究报告 大气污染环境治理物联网云平台项目商业计划书

篇6:高校云测试平台的研究

1.1 概念和分类

云测试平台是软件测试服务商提供的一种新型的测试平台, 测试人员不再在本地计算机上安装和使用任何的测试工具, 而是远程登录到云测试平台上即可创建所需的虚拟测试环境, 进而在此环境中展开应用软件的全套测试。云测试平台在云计算的服务体系架构中应属于Paa S层次的一种具体服务类型。

1.2 优点

(1) 节约成本。云测试平台作为高校信息化建设的软件测试用基础设施, 可节约大量的前期硬件、软件和人力资源投入成本。

(2) 提高效率。在高校日常的软件测试工作中, 经常出现因测试资源不足而推迟测试时间、环境工具配置复杂而延长测试周期的情况。使用云测试平台可以快捷部署测试环境, 有效缓解了测试时间紧、任务重、人员和软硬件资源缺乏等方面的矛盾。

(3) 整合资源。云测试平台可以对测试工具、测试用例、测试数据、测试方法等软件测试相关的资源进行整合, 为应用系统的研发提供统一、完备和准确的测试服务, 从而使测试人员将更多的精力投入到专属领域的测试工作中。

2 云测试平台总体规划

2.1 选择云配置

国家标准与技术研究院 (NIST) 提出一套关于云的定义, 该定义提出了四种不同的云配置:公共云、私有云、社区云和混合云。结合高校云平台建设的现状, 从成本、应用、管理、安全性等多方面考虑, 私有云在安全性、可扩展性上优于公共云, 且易于管理, 更加适合于作为云测试平台的云配置。

2.2 确定测试内容

高校云测试平台比较适合于对B/S架构的软件进行测试, 可提供的测试服务内容如表1所示。

2.3 构建测试平台

依据所选云配置, 云测试平台的硬件和软件可归入以下四个层次: (1) 资源层。最底层是资源层, 资源层是构建云测试平台的基础。它包括计算服务器、存储服务器和网络设备等基础设施。资源层由资源管理层管理, 负责高并发量的用户请求处理、大运算量计算处理、及云数据的存储等。 (2) 资源管理层。资源管理层监控和管理云测试平台资源的使用情况, 迅速反应, 完成节点同步配置、负载均衡配置和资源监控等工作, 确保资源能顺利分配给合适的用户, 以及动态地部署、配置和回收资源。 (3) 服务管理层。提供管理和服务, 对云用户和用户选择的云测试服务进行管理。云测试服务部署在服务管理层, 是平台的核心内容。 (4) 访问管理层。最上层是访问管理层, 它提供云用户请求服务的交互界面, 将用户请求转发到相应的程序, 是用户使用云测试平台的入口。

2.4 扩展测试资源

云测试平台应具备以下两种资源的扩展能力: (1) 测试工具集。通过将高校现有的及未来新增的测试工具统一纳入云测试平台管辖范围, 可以解决工具资源不足、配置复杂等问题, 以降低测试成本。 (2) 测试知识库。通过测试案例、业务知识、测试数据和测试方法的积累, 形成系统化的专属领域测试知识库, 可以用于快速提升测试人员和高校学生的专业测试能力。

3 云测试平台实施路线

3.1 专家评估

高校决策部门应组织云计算领域的专家评估云测试平台建设的风险, 包括安全性和性能两个方面, 并为降低和规避风险提前做好相关预案。

3.2 试点项目评估

试点项目评估云测试的可行性是一种有效降低风险的方式。通过试点, 设计者可以试验他们正在考虑的各种测试工具的实际响应时间和载荷条件, 充分发掘云测试的优点。在云测试实际环境中试点, 既可以测试云本身或在云中托管的基础设施, 还可以测试云应用和非云应用。

3.3 制定详细战略

制定详细的战略, 包括建立欲测试应用的标准、测试级别 (如集成和性能测试) 、测试配套服务 (如计费服务) 、实施步骤、以及对新测试需求应对策略。云计算领域专家云、测试供应商和质量保证咨询公司可以为这些策略的创建提供一些建议和方向。

3.4 加强产学研合作

许多云测试平台的问题仍未解决, 包括应用问题 (哪个应用最合适云测试) 、管理问题 (如何为云测试组织人力资源) 、法律和金融问题 (如何跨区管理测试数据) 和经济问题 (如何制定适当的定价模型) 。加强产学研合作, 可以使研究者、学习者和实践者从多个维度探索和解决云测试平台的问题, 以达到在发展和实践中不断完善云测试平台的目的。

摘要:云计算技术的普及和发展, 不仅改变着人们的IT应用和开发方式, 同时还在改变着软件的测试方式。本文结合高校教学与科研的实际情况, 对在高校云计算基础平台上进一步构建云测试平台的可行性进行了研究和评估, 并提出了具体的实施路线。

关键词:云计算,云测试,研究

参考文献

[1]曹丽, 姜毅, 等.云计算软件测试平台的构建[J].现代图书情报技术, 2012 (11) .

[2]史亮, 高翔.探索式测试实践之路[M].电子工业出版社, 2012.

[3]李书杰.大型企业信息系统中的“云测试”[EB/OL].http://www.51testing.com/[2011-11-14].

篇7:云平台性能测试报告

摘 要:形成性评估无疑是大学教学改革的指导原则和实施方向。本研究探索旨在利用目前高校师生人手一部的手机等智能终端,借助高校校园网、wifi和3G等优势网络资源,创建移动智能教学测试云平台,以期实现教学过程的动态监控,教学效果反馈与分析零延误,实现高校教学评估“随e测”与“随e练”的“双e”及“在课堂”与“在云端”的“双在”终极管理。经过部分学校相关教学实验,该移动智能教学云平台的建设有助于促进大学英语教学改革背景下英语测试手段的现代化改革。

关键词:移动智能教学云平台;测试改革;形成性评估

一、引言

云技术与现代无线通讯技术的高速发展催生了潜力巨大的云产业和APP应用市场。然而面对巨大的教育市场,云技术和移动智能终端的APP应用技术的完美结合却并不多见。尤其是在移动手机上实现信息化、无纸化和智能化的教学与测试的云平台建设依然为市场空白。我国大学英语应试教学的现状迫切需要改革,新课改提出了重视听说能力的培养和计算机技术在大学教学中的运用等观点,其有效实施促进了学生英语应用能力的显著提高。英语测试作为评估的重要手段,更是对课程改革成果的反映,因此在大学英语教学改革不断深入进行的这一背景下,英语测试的不断改革创新显得举足轻重。

二、语言测试理论

语言测试作为一门跨学科的综合性学科,以语言学、语言教学法、学习论和心理测量学为理论基础,以测试理论和手段作为研究对象,主要经历了前科学语言测试阶段、结构主义阶段、社会语言学阶段和交际语言测试阶段,后三个阶段分别反映了结构主义模式、社会语言学模式和交际语言测试模式(Heaton1991)。

(1)前科学语言测试阶段(Pre-Scientific Period)。语言测试伴随语言教学的发展而出现,20世纪40年代前的语言测试被统称为前科学语言测试。在这个时期,语言教学人员仅仅将语言视为一门涵盖语法、词汇、语音的知识来教授,在教学方法上主要采用语法翻译法(grammar- translation approach),因此在语言测试中通常进行短文写作的笔试形式,而缺乏对口语和听力的考查(刘金声2008)。

(2)心理测量——结构主义语言测试阶段(Psychometric-Structuralist Period)。20世纪五六十年代,结构主义语言测试占主导地位。在这个阶段,人们对语言有了客观科学的认识,语言测试的理论基础为结构主义语言学和行为主义语言学,而在方法上汲取了心理语言学领域的心理测量学方法,代表性测试为分离式测试(Discrete Tests)(薛荣2008)。教学人员通过划分考点的方法对学习者的语言技能和语言成分进行测试,采取多项选择题的形式来增强测试的信度和客观性。但在这种测试中并不能反映出学习者语用能力,效度问题鲜有涉及。

(3)综合——社会语言学测试阶段(Integrative- Sociolinguistic Period)。进入20世纪70年代以来,人们开始提倡综合测试法。在结构主义语言测试中,测试者将语言知识进行分解,独立地考查在非语境情况下的测试成绩。而综合测试主张测试在一定的语境下进行,对语言技能和语言成分进行全面综合的考查,不在测试中刻意追求区分各单项语言技能或能力,而是强调两项或两项以上语言技能的综合评估,提高了测试的效度。在这一时期,测试类型为综合题,如完形填空、听写、口试、改错、作文等(Brown 2005)。

(4)交际性语言测试阶段(Communicative Testing Period)。20世纪60年代中期,美国语言学家Chomsky (1965) 在批评行为主义理论的基础上提出语言能力(linguistic competence)和语言行为(linguistic performance)两个不同的概念。但语言使用是一个动态的过程,而语言能力相对抽象,由此在20世纪80年代Canal和Swain(1980)提出包括语法能力、社会语言能力和交际策略能力的交际模式。1972年,美国人类学教授、社会语言学家Hymes(1972)提出交际能力(communicative competence)的概念,认为使用语言不但要能够按照语法规则生成形式合格的句子,而且还应具有在不同的语境中合理使用这些句子的能力。20世纪90年代初,Bachman(1996)提出了新的交际能力理论模式(Communicative Language Ability Model)。Bachman认为,语言交际能力就是把语言知识和语言使用的场景特征结合起来创造并解释意义的能力,主要由语言能力、策略能力和心理—生理机制组成。在交际性语言测试中,测试的目的在于考查学习者是否能够在一定的语境中用所学的语言进行有效的交际,所以在试题的设计中倾向于让学习者解决实际生活中任务和问题。交际性语言测试把学习者对语言的掌握和实际运用能力结合起来进行考查,具有更优的效果。

可以发现,当代语言测试和评估从分析式转向综合式,从重视部分到重视整体,从面向外部结构转向重视内部结构(杨满珍2002)。方向基本上从单纯的测试语言形式到测试语言的具体运用能力(薛荣2008)。这就要求测试者尽可能在测试中充分考查听、说、读、写相结合的综合能力,在测试内容上将听力、口语、阅读、写作等进行有机分配与结合。由于语言学习是循序渐进的过程,以往一锤定音具有终结性质的期末考试应逐渐分散为随堂测试,更有利于教学人员掌握学习者的学习进度和薄弱环节,以此进行重点强化提高。而且,测试的结果不仅仅采用唯一的答案,而是鼓励学生的发散性思维。这对教师与学生之间的互动关系产生了新的考验,师生之间的交流不再局限于字面的语法,及时动态且长期有效的沟通平台成为一种需要。

除了从测试自身发展的历史阶段来探讨目前测试改革的出路外,美国教育学家斯克里芬根据教育目的的不同,把教育评估分为“终结性评估”和“形成性评估”两种。终结性评估用于检查学习课程结束时的结果,它的重点是学习的成果。形成性评估是为改进课程教学在活动中进行的评估,它的重点是学习的过程。从实施方法上来看,终结性评估的手段主要是考试,形成性评估则是课堂测验、作业、平时观察等。从测试的内容来看,终结性评估是对学习成果的总的考查,形成性评估则是根据阶段性目标形成的阶段性检验。从实施时间来看,终结性评估进行于学期末,而形成性评估贯穿于教学的始终。新颁布的大学英语课程教学要求规定过程性评估包括学生自我评估、学生相互间的评估、教师对学生的评估、教务部门对学生的评估等(教育部高等教育司2004)。教师通过课堂活动和课外活动的记录、网上自学记录、学习档案记录、访谈和座谈等形式对学生的学习过程进行观察、评估和监督,促进学生有效的学习。通过形成性评估,教学的信息可以得到及时的反馈,教学方向和目标随着评估结果进行不断的调整和改进,进而提高教学的质量和水平。

为顺应测试发展的新趋势以及大学英语课程教学新要求,本研究采用移动智能教学云平台来探讨大学英语测试改革,旨在增加形成性评估在决定学生英语课程成绩中的权重,从而最大限度发挥学生的英语自主学习能力及提高其英语应用能力。

三、移动智能教学云平台的研发及应用

随着多媒体技术和移动通讯设备的广泛应用,计算机及其网络以及移动通讯终端在教学中的辅助作用也随之增强。英语教学手段的现代化变革促使英语测试手段发生相应的变化。传统的英语教学和测试模式已经不能适应新时代的要求。传统英语测试手段存在以下局限性:(1)传统的英语测试出卷工作需要耗费大量的时间和精力,不仅工作效率低,试卷质量还难以保证。(2)在设计试卷的时候,往往会因为考虑测试的可行性而过多地强调试卷信度,大量采用选择性客观试题,忽视了试卷的效度问题。(3)在对一些主观试题打分时,很难切实做到公正客观地评估应试者的真实英语水平。(4)英语测试后的工作也常常是仅限于教师订正答案,而极少对试题本身的难度和区分度以及考试分数所反映的情况进行认真分析。这种只重视测试不重总结的行为,也不利于教师真正了解学生的英语学习状态和学习弱点,不利于及时调整英语教学策略。我们应当认真研究英语测试中存在的问题,充分利用现代的测试手段即移动智能教学云平台,来推进英语测试方法和测试类型的多元化,同时,尽量消除测试对英语教学带来的不良影响,从而对英语教学工作起到更为有利的反拨作用。

近10年来,国家以重点项目和工程为引导,以示范点为抓手,在教育信息化方面投资巨大,加上一些社会力量的积极参与,使得教育信息化的软硬件环境得到了长足发展。根据国家统计局数据,2008-2012年,中国教育信息化每年的投入都不低于400亿,且每年以20%以上的速度增长。《国家中长期教育改革和发展规划纲要(2010—2020)》首次将加快教育信息化进程纳入国家中长期改革和发展纲要,要求到2020年,基本建成覆盖城乡各级各类学校的教育信息化体系,促进教育内容、手段和方法的现代化,基本实现教育现代化。可以预见,我国的教育信息化产业在未来的10年将迎来一个高速发展期。

智能手机的普及应用无疑给教育信息化、智能化提供了实时高效、绿色环保、方便快捷的平台。但作为一个必不可少的教学与管理环节的考试测试,其实施手段却依然停留在传统的笔墨纸张的手工时期或机器读卡的半智能时代。制约其发展的核心因素是防不胜防的高科技作弊手段和工具,其中移动智能设备是考试防范的重点。智能手机更被看作各类考试的天敌。此类应用开发因此受到禁锢而成为市场的盲点。

基于云平台的原创APP应用支持用户注册和安全登录,兼有在线考试、在线课堂、在线学习、在线竞赛、在线会议等多种功能。在线考试包括题库管理、试卷管理、考试管理、评卷管理。题库管理可以让老师提前录入相关的考试试题,作为知识沉淀的知识库。设置试题的查询、删除、录入、修改等功能。试卷管理可以创建考试内容、设置考试的题型、答案、考试的时间以及参加考试的人员范围。考试管理是考场中老师主要的监控管理的平台,可看到考场中学生的登陆状态、考试进度、学生考试过程中有无异常等,也可通过界面进行学生状态的控制,发现作弊可强制中断某个学生的考试进程。评卷管理分为三块内容。在考试答案预先设置的情况下,结合档案便可自动进行评分,如未预先设置,可以进入人工阅卷模式。成绩查询可以查询学习、班级、单个学生的考试成绩及成绩分析等。试卷浏览可查看单个学生的答题结果,界面将学生的考试结果进行拼装。在线课堂提供课堂测验题目的管理及发布,具备测验结果的查询功能,提供相关资料的管理及发布功能,提供课程表的维护功能。可查看相关的留言信息,并进行相关信息的回复。在线学习提供家庭作业的录入管理及发布功能,提供答案的发布功能,具备考试结果查询及分析功能。提供学生长期的测验结果信息综合评估功能,并提供结果查询。在线评比提供竞赛选手的信息录入功能。提供投票、打分结果的统计分析,并以图表的方式进行展现。在线会议提供与会人员的签到结果查询,发布与维护会议材料,提供与会相关人员的意见反馈的浏览功能。

该移动智能教学云平台在经过逐级研发完善后,先后在江苏的多所大学中学进行测试和试运行,其反响积极。教师利用该教学云台探讨教学改革新路,取得效果良好。同一教师进行英语教学的两个班级被分为两组,这两个班级学生的英语水平在入学英语分级考试中成绩相同。一组采用移动智能教学云平台对教学效果进行跟踪监控,另一组仅采用终结性评价方法即期末考试来考核学生。实验组和对照组的学习效果在一年时间内由问卷调查、期末考试和等级考试的结果来进行综合对比。通过课堂观察、学生平时成绩、周记、问卷调查、面谈和学生讨论等评估手段来看,试验组的教学效果、学生反馈、测试成绩及四六级通过率均优于对照组。

教师对该教学云平台的意见是:该平台创建了教学云端平台,丰富并拓宽了智能移动应用。同时可以实时实地跟踪和优化教学过程,从而实现了教学反馈零滞后,成绩分析无延误,师生互动更多元。学生对使用该教学云平台的意见是:将手机这样的智能移动终端从教学测试的重点防范对象变成了学习测试的良师益友,实现了普通教室的“双在”和“双e”的教学体验,即教学活动既在场又在线。教学在眼前,管理在云端。练习测试随e练与随e测。测试方法简单有趣有效,很能顺应身处信息新时代的大学生的心理需求和学习习惯。可见,移动智能教学云平台实现教学模态从PPT到PPT+APP的转换,教学手段从3机(计算机、阅卷机和打印机)2异(异时异地)1卡(答题卡)到3端(教师端、学生端和云端)2实(实时实地)1色(绿色环保)的全方位教学体系的改革与创新。

四、结语

总之,现代大学英语测试在多媒体和信息技术的支持下正朝着个性化、高效化、互动化和客观化的方向不断发展。通过技术化的科学

手段,充分利用日常生活中的智能手机作为考试工具,可以为现代化教育手段提供更广阔的发展前景。通过移动智能教学云平台的研发和应用,本研究希望积极推进英语测试类型和测试方法的多元化,为大学英语测试改革作出贡献。

参考文献:

[1] Bachman & Palm er. Language Testing in Practice[M]. Oxford: Oxford University Press, 1996.

[2] Brown, J. D. Testing in Language Programs: A Comprehensive Guide to English Language Assessment [M]. New York: McGraw - Hill Companies, 2005.

[3] Canale, M. & Swain, M. Theoretical Bases of Communicative Approaches to Second Language Teaching and Testing[J] . Applied Linguistics, l980 (1).

[4] Chomsky, N. Aspects of the Theory of Syntax[M] . Massachusetts: MIT Press, 1965.

[5] Heaton, J. B. Writing English Language Tests[M] . London: Longman Group, 1991.

[6] Hymes, D. On Communicative Competence[C]. In Pride, J. B. and Holmes, J. (eds). Sociolinguistics. Harmondsworth: Penguin, 1972.

[7] 教育部高等教育司. 大学英语课程教学要求[M]. 上海: 上海外语教育出版社,2004.

[8] 刘金声,单亦祯. 语言测试综述[J]. 河北理工大学学报(社会科学版),2008(1).

[9] 薛荣. 当代语言测试: 理论发展与未来趋势[J]. 外语与外语教学,2008(10).

[10] 杨满珍. 20世纪90 年代国外语言测试的发展[J]. 外语教学,2002(5).

[该研究受到中央高校基本科研业务费专项资金资助(No.30920140132030),项目名称:“大学英语测试改革:移动智能教学云平台在任务型教学中的应用及评估”]

篇8:云管理平台自动化测试框架研究

自2006年起至今, 整个IT业刮起了“云计算”的风暴, 许多IT巨头们不断推动着云计算从新兴技术发展成为当今的热点技术。基于IaaS (基础设施即服务) 的产品也如雨后春笋般出现。对于提升产品质量和竞争力, 高效的软件测试无疑发挥着举足轻重的作用。虽然传统应用软件的自动化测试工具及测试方法已日臻成熟, 但是, 在云技术领域的自动化测试技术还需要进一步探讨[1,2,3]。本文通过分析开源云管理平台的业务特点、遵循自动化测试框架构建的原则, 提出一种适宜云管理平台功能自动化测试的测试框架, 从而实现云管理平台的自动高效测试。

1 Cloudstack概况

Cloudstack是Citrix公司将Cloudstack基础即服务 (Iaas) 产品源代码与Apache Foundation合作的一个云平台管理软件。

产品分为以下几大模块, 其模块间的交互关系如图1所示。

系统业务模型如图2所示。其主要业务流程有[4]:系统管理员添加iCenter、创建组织和组织管理员、组织虚拟数据中心的申请及审批创建、组织虚拟网络的申请及审批创建、组织存储的申请及审批创建、组织用户的注册及审批、组织用户vapp的申请及审批、网络申请及审批、更改虚拟机申请及审批、组织用户虚拟机的开启、关闭、挂起、恢复、重启、更改拥有者、移动复制虚拟机等。

2 OBP测试框架

2.1 对象业务流程测试框架

对象业务流程测试框架 (OBP) 是基于面向对象的思想, 将具体对象 (WEB界面对象) 和抽象对象 (业务组件) 统一作为共享对象存入共享对象资源库, 针对每一个业务流程, 顺序组合业务组件完成业务流程的批量自动化测试。

该框架的实现流程如图3所示。

(1) WEB界面对象库构建。通过自动化测试工具获取UI对象的属性和操作, 后存入共享对象库。

(2) 业务组件对象库构建。在测试工具的业务组件模块中编写手工组件 (不可再分的活动单元) , 后转化为关键字驱动的业务组件, 包括测试脚本和检查脚本。

(3) 脚本批量运行的实现。以业务流的执行顺序为依据, 顺序加载业务组件, 调试为一个业务流测试脚本, 执行自动化测试, 也可以顺序加载多个业务流, 实现多业务流的自动化测试。

2.2 OBP框架的特点

适宜云管理平台系统, 基于对象业务流程测试框架的自动化测试工具有以下几个特点:

(1) 提供脚本录制-编写-运行功能。具有自动化测试工具最基本最主要的功能。

(2) 识别对象的功能[5]。云管理平台融合复杂的业务逻辑, 不适宜采用基于浏览器和DOM对象模型的自动化测试工具, 应该选用基于GUI对象识别原理的测试工具, 且该工具应该具有对象识别功能, 便于构建WEB界面对象库。

(3) 提供高效的用例组织管理功能。云管理平台涉及业务流程繁多, 且对象业务流程测试框架又将每一个业务流程划分为不可再分的可复用的业务组件, 组件、用例的交互及复用需要有高效的组织方式作为支持。

(4) 提供高效的测试脚本批量运行功能。能够针对业务流程组合现有的业务组件, 调试后可以批量运行, 运行结束后, 输出概要的测试结果, 并可查看具体的错误信息。

基于Java语言开发了具有上述功能的测试工具, 经验证该工具可以高效支持、实现对象业务流程框架下的自动化测试。

3 测试实践

3.1 实验过程

对云管理平台产品CloudStack自动化测试过程中采用OBP的自动化测试框架, 通过测试工具对象捕获功能, 获取对象属性和操作, 构建对象库, 使用录制-优化的方式构建业务组件, 用VB Script语言将业务组件自动化, 批量运行测试脚本。

(1) 构建对象库。基于面向对象的思想, 通过测试工具的对象捕获功能及业务组件模块功能, 构建可以复用的、不可分割的共享对象资源库。

(2) 构建业务组件。按照项目管理工具的管理方案, 将脚本的组织目录分为5个部分:init (初始环境配置目录) 、config (配置脚本目录) 、function_libs (公共函数目录) 、driver (业务脚本目录) 、test (公共脚本目录) 。以下为实际测试各目录情况:

(3) 测试执行。以业务流的执行顺序为依据, 顺序加载要执行的脚本, 形成一个业务流测试脚本, 执行自动化测试[6], 也可以顺序加载多个业务流, 实现多业务流的自动化测试。

3.2 实验结果分析

将自动化脚本覆盖的系统功能测试用例数, 与功能测试用例总数的比率作为自动化度[7]。具体为:

系统自动化度=自动化脚本覆盖总用例数/功能用例总数

模块自动化度=模块自动化脚本覆盖用例数/模块用例总数

以物理资源管理、虚拟资源管理模块为例, 对CloudStack系统的自动化度进行研究。由表1可知, 物理资源管理、虚拟资源管理模块自动化度较高, 可以实现模块基本流程的自动化测试。

4 结语

经实验证明, OBP框架利用面向对象的思想, 将脚本中重复的部分抽取出来, 作为共享的对象库, 既提高了脚本的复用率和工具的组织管理功能, 又提高了脚本的可读性。OBT自动化测试框架能够有效支持云平台的自动化测试, 实现自动化测试脚本的有效组织和高复用, 降低了脚本维护的成本。但在实际项目引入自动化测试时, 还应该充分考虑项目需求是否变更频繁、架构是否稳定, 还有项目周期等因素[8]。

参考文献

[1]陈计喜, 姜丽红.自动化功能测试的方法与实现[J].计算机工程, 2004, 30 (12) :168-169.

[2]马春燕, 朱怡安, 陆伟.web服务自动化测试技术[J].计算机科学, 2012, 39 (2) :162-163.

[3]俞戴龙.QTP自动化测试框架的企业级应用[D].上海.复旦大学, 2010.

[4]马雪英, 姚砺, 叶澄清.回归测试自动化工具研究[J].计算机科学, 2005, 32 (3) :162-165.

[5]尤永康, 刘乃琦.自动化回归测试在java项目中的实现[J].计算机应用, 2005, 25 (1) :88-90.

[6]黄宁, 余莹, 张大勇.Web服务软件测试技术的研究与实现[J].计算机应用与工程, 2004, 25 (12) :147-149.

[7]宋波, 张忠能.基于系统功能测试的软件自动化测试可行性分析[J].计算机应用与软件, 2005, 22 (12) :31-33.

篇9:云平台性能测试报告

(1. 集美大学 航海学院,福建 厦门 361021;2. 大连海事大学 航海学院,辽宁 大连 116026;3. 中国电信九江分公司,江西 九江 332000)

0 引 言

随着世界海运事业的发展,船舶数量越来越多,船舶朝大型化、高速化方向发展,船舶的航行安全显得越来越重要,这客观上推动着船舶导航与自动化驾驶技术的发展.船舶在海上航行受到风、浪和流的影响,故只有正确控制和使用船舵才能使船舶在各种外界影响下保持航向或者改变航向,从而保证船舶安全迅速地从出发地到达目的地.自动舵具有减少人力、节约燃料、降低机械磨损等功能.目前,船舶航向控制领域出现各类先进的控制算法.为设计满足不同指标要求及适应各种应用场合的航向智能控制算法,通过选择若干主流算法集成到船舶智能操控(Ship Intelligent Handling and Control, SIHC)仿真平台桌面系统进行性能测试.本文基于文献[1]和[2]实现的算法及文献[2]提出的控制算法评价方法,着重对该平台集成的两种航向控制算法进行初步的性能测试.

1 SIHC仿真平台简介

SIHC仿真平台是用于船舶航行自动化基础研究的仿真测试平台,其中的本船具有航向和航迹两种自动控制模式,能实现船舶自动避碰与航迹自动监控,可用于船舶智能避碰决策算法与智能控制算法测试.该平台实现以下创新点:智能目标船功能;先进的仿真技术;集成6自由度液压/电动平台;接入船舶自动识别系统(Automatic Identification System, AIS)交通流功能;标准电子海图平台.本文测试使用的是SIHC仿真平台的桌面系统,主要由1台主控台计算机、1台目标船服务器、4台本船计算机构成,本船集成有丹麦航海研究所(Denmark Marine Institute)开发的6自由度船模.

2 船舶航向控制算法原理

2.1 普通PID航向自动舵原理

6自由度船模自带有普通PID航向自动舵.基于其自带的船模参数,可以更好地确定PID的3个参数的初始值,从而达到较好的航向控制效果.普通PID航向自动舵结构及原理分别见图1和2.从图1可以看出,该自动舵实际上由一个传统的PID航向自动舵和一个滤波器组成.

图1 普通PID航向自动舵结构

图2 普通PID航向自动舵原理

普通PID航向自动舵控制规律的传递函数形式为

式中:U(s)为输出舵角;E(s)为输入航向偏差;K为舵增益;TI为积分时间常数;Td为反舵时间; 1/Tg为滤波频率;1/α为差异化系数.

2.2 模糊自整定PID航向自动舵原理

模糊自整定PID控制[1]运用模糊数学的基本原理和方法,把模糊控制规则的条件及其操作用模糊集表示,并把这些规则和有关信息作为知识存入计算机知识库中,然后根据控制系统的实际响应情况运用模糊推理,自动实现对PID参数的最佳调整[3].模糊自整定PID控制算法由模糊自整定PID控制器、限幅环节和被控对象等3个部分组成,其原理见图3.

图3 模糊自整定PID控制原理

模糊自整定PID控制算法在运行中不断检测误差e(t)=ψ(t)-ψr(t)和误差的变化率ec(t)=de(t)/dt,然后根据模糊规则(见表1~3)对PID的3个参数kp,ki,kd进行调整,以满足不同e和ec对控制参数的不同要求,从而使被控对象具有良好的动、静态性能.其中,ψ表示受控系统的航向角,ψr表示其设定值.

在船舶模糊自整定PID自动舵中,必须测量误差和误差的变化率即艏摇角速率ec.

在本设计中,作为输入的e和ec的论域为

e,ec={-5,-4,-3,-2,-1,0,1,2,3,4,5}

作为输出的修正量Δkp,Δki,Δkd的论域为

Δkp,Δki,Δkd={-5,-4,-3,-2,-1,0,1,2,3,4,5}

选取的输入、输出变量词集[4]为

e,ec,Δkp,Δki,Δkd={NB,NM,NS,ZO,PS,PM,PB}

词集中的元素依次分别代表负大、负中、负小、零、正小、正中和正大.

表1 Δkp的模糊控制规则[5]

表2 Δki的模糊控制规则

表3 Δkd的模糊控制规则

根据工程技术人员的技术知识和实际操作经验,本设计中输入、输出变量的隶属度函数曲线NB部分均取降半正态分布曲线,PB部分均取升半正态分布曲线,NM,NS,ZO,PS和PM部分均取三角分布曲线[6],因此可以得出各模糊子集的隶属度.根据各模糊子集的隶属度赋值表和各参数模糊控制模型,应用模糊合成推理设计PID参数的模糊矩阵表,查出修正量代入式(1)~(3):

在整个系统运行过程中,控制系统通过对模糊逻辑规则的结果处理、查表和计算,完成对PID参数的在线自整定.

3 航向控制算法性能评判方法

3.1 航向跟踪评判方法

为使船舶自动舵具有航迹(线)自动保持能力,必然要求自动舵具有航向跟踪功能,即在给定航向因接近计划航向的转向点需要改变的情况下,自动舵具有自动跟踪航向变化的能力.[1]

根据定值自动控制系统的性能指标及经验,航向跟踪的性能指标主要由超调量、跟踪响应速度、操舵次数、最大舵值和振荡次数组成.为得到这5个指标的权值,针对航向跟踪进行问卷调查.问卷中通过两两比较的方式让被调查者在速度快、精度高、耗油少等3个因素中选择最看重的因素.共发出问卷68份,速度快、精度高和耗油少被选中的次数分别为62,79和11.

问卷调查中的3个因素与这5个性能指标的相关程度有很大的差异:速度快是跟踪响应速度指标的最大关联因素;精度高是超调量指标的最大关联因素;耗油少是操舵次数、最大舵值、振荡次数这3个指标的最大关联因素.因此,可以分别算出5个性能指标的相应权值:超调量指标权值w1为0.45;跟踪响应速度指标权值w2为0.36;操舵次数、最大舵值、振荡次数这3个指标的权值w3,w4,w5理论上应该均为0.06.但是这5个性能指标的权值和不为1.经研究发现振荡次数指标比操舵次数和最大舵值这两个指标相对更重要,故其权值理应比另外两个大.以此得到超调量、跟踪响应速度、操舵次数、最大舵值、振荡次数这5个指标的权值依次分别为0.45,0.36,0.06,0.06,0.07.根据对船上工作人员的问卷调查,自动舵改向的最佳状态是零超调、无振荡、操舵两次、舵向改变10°时的响应时间控制在300 s以内、最大舵值不超过10°.故得出改向时自动舵的5个性能指标的隶属函数[10-11]如下:

超调量的隶属函数

f(x)=e-x2(x≥0)

跟踪响应速度的隶属函数

操舵次数的隶属函数

最大舵值的隶属函数

振荡次数的隶属函数

f(x)=e-x2(x≥0)

3.2 航向保持评判算法

船舶自动舵的航向保持功能是在给定航向不变的情况下能确保船舶在外界环境干扰作用下具有保持既定航向的能力.航向保持的性能指标主要由保向精度和舵机能耗组成.航向保持的性能指标为

式中:J为总体性能指标值;N为采样个数;ψ0(n)为设定航向;ψ(n)为实际航向;δn为当前舵角.对航向保持的评判主要从航向偏差和能耗方面考虑,所以J值越小,控制算法的航向保持性能越好.

为得到保向精度指标和舵机能耗指标的权值λ1和λ2,对一些有经验的船舶驾驶人员和航海教学人员进行一次问卷调查.在发出的58份问卷中,减少航向偏差和减少舵机能耗被选中次数分别为43和15,由此可以得出λ1和λ2分别为0.74和0.26.

4 评判结果及分析

4.1 航向跟踪测试方案与评判结果

考虑到不同船型及不同环境等因素,测试方案选取3种不同船型船模,即散货船、集装箱船和油船,另外为周全考虑又选取一条较小船模(巡逻艇),船模信息见表4.环境设置分为8个等级,风向为40°,波浪周期为5 s,波浪方向为220°,具体的风速与浪高对应关系见表5.测试过程考虑流的影响,流速设置为1 kn,流向为120°.

表4 测试方案船模基本信息

表5 测试方案环境设置

在同一海域设置本船1和本船2,测试过程中两条船采用同样的船模.设定船舶的初始速度为该船的服务速度,船舶初始航向为0°,船舶航行全过程中其车钟都在FULL挡位.船舶开始运行后本船1和本船2分别采用模糊自整定PID航向自动舵和普通PID航向自动舵进行改向60°的操作,当两船航向改到60°且稳定后,结束测试.利用平台设计的接口,提取两船的数据,然后利用MATLAB分别画出两船的实际航迹向曲线.图4和5分别为船模III在环境7下的两种自动舵的实际航向及舵角变化曲线,其中,实线和虚线分别为普通PID自动舵和模糊自整定PID自动舵控制下的变化曲线.

图4 航向变化曲线 图5 舵角变化曲线

再利用上述航向跟踪性能评判方法对每次实验数据进行处理,得到的评判结果见表6.

从表6可以明显看出,在不同环境下两种自动舵的控制性能基本接近,且稳定性都较好,但是在风浪等级较高的环境条件下亦或对于较小的船模,普通PID自动舵的性能稍好.同时可以看出,两种自动舵对不同船型的控制性能有明显差异(巡逻艇的控制效果最好,其次是集装箱船,对油船的控制性能最差),这显示出两种自动舵对不同船型航向跟踪的适应性存在不足.

4.2 航向保持测试方案评判结果

航向保持测试方案的环境设置和船模选取与航向跟踪测试方案一致.在同一海域设置本船1和本船2,测试过程中两船采用同样的船模,设定船舶的初始速度为该船的服务速度,船舶的初始航向为60°,船舶航行全过程中其车钟都在FULL挡位.船舶开始运行后本船1和本船2分别采用模糊自整定PID和普通PID航向自动舵保向,当两船的航向都稳定在60°时,结束测试.根据第3.2节的航向保持评判算法,利用MATLAB对实验输出的船首向及舵角等数据进行处理,所得评判结果见表7.

表7 航向保持评判结果

由船模I和II的评判结果分析可知:在航向保持过程中本船1的总体性能指标值比本船2的小,即模糊自整定PID自动舵比普通PID自动舵有更好的航向保持性能.对于船模Ⅲ,普通PID自动舵的航向保持性能较好.由于船模IV较小,在风浪等级较高的环境下两种自动舵对其丧失航向保持能力.表7同时显示,模糊自整定PID自动舵对集装箱船的航向保持控制性能最好.

5 结束语

借助SIHC仿真平台开展船舶自动控制算法仿真及性能测试,利用MATLAB工具,分别从航向跟踪和航向保持两个方面对该平台集成的普通PID自动舵和模糊自整定PID自动舵的控制性能进行测试.从测试结果可知:在航向保持方面,就一般的船型而言,模糊自整定PID自动舵的性能优于普通PID自动舵;在航向跟踪方面,普通PID自动舵和模糊自整定PID自动舵的控制性能近乎一致;在某些环境下,普通PID自动舵对某些船型的控制性能会稍胜一筹,但对不同船型的适应性有待日后进一步优化.在航向控制评判算法方面,航向跟踪性能评判的隶属函数的临界值还有待于进一步细致优化,以更客观精准地分析比较不同船舶航向控制算法性能的优劣.

参考文献:

[1] 李丽娜, 杨神化, 熊振南, 等. 船舶拟人智能避碰决策理论框架的研究[J]. 中国航海, 2009, 32(6): 30-34.

[2] ZHAO Q, LI L, CHEN G. Research on fuzzy self-tuning of PID autopilot[C]//ICTE 2011, ASCE, 2011: 985-990.

[3] 赵晴. 船舶航迹智能控制算法的研究[D]. 厦门: 集美大学, 2012.

[4] 刘洋, 米伟, 郭晨. 船舶航向模糊自整定操舵控制器的研究[J]. 中国航海, 2010, 33(1): 71-75.

[5] 季本山. 基于PLC的模糊PID船舶自动舵[J]. 上海海事大学学报, 2009, 30(4): 57-62.

[6] 陈水利, 李敬功, 王向公. 模糊集理论及其应用[M]. 北京: 科学出版社, 2005: 42-58.

[7] 李丽娜, 张寿桂. 航海自动化[M]. 2版. 北京: 人民交通出版社, 2012: 70-83.

[8] HTIN Aung Kyaw, XIAO Yingjie. Assessment on the Yangon river channel based on fuzzy synthetic evaluation[J]. 上海海事大学学报, 2007, 28(1): 50-56.

[9] 陈辰, 胡甚平. 基于模糊DEA的航运公司安全管理有效性评价[J]. 上海海事大学学报, 2012, 33(1): 12-15.

[10] 张晓平. 模糊综合评判理论与应用研究进展[J]. 山东建筑工程学院学报, 2003, 18(4): 90-93.

上一篇:英语活动主持词下一篇:安徽最美教师观后感