XXX部XXXXXXXXXXXXX系统项目性能测试报告11D2修订控制页编号文档版本修订章节修订原因修订日期修订人审核人11.0全文创建文档2011-4-28234性能测试报告113目录3、获得系统性能较优的参数配置,为XXX系统调优提供依据。4、获得XXX系统在不同负载下的主机资源消耗情况,为硬件配置提供依据。2.测试地点XX。3.测试环境3.1.服务器、客户端环境本次测试的服务器环境为XXX系统的生产主机,客户环境为1台P41.6G的便携式笔记本。本次测试使用的设备清单如下:设备类型设备型号操作系统数据库/软件内存CPU业务服务器1*HPRX4640HPUNIX11Oracle9201XXX系统4G2*安腾1.1客户端1*IBMR50eWin2000IE6,LoadRunner8512MP4网络客户端通过百M局域网访问XXX系统。3.2.测试工具测试项目测试工具监控器性能测试工具LoadRunner8.0Protocol:Web/HTMLMonitors:SystemResource测试工具特点介绍:LoadRunner是用于预测系统行为和性能的压力测试工具。它通过模拟大量用户来对整个企业的基础设施进行测试,以发现问题。LoadRunner使用虚拟用户来最小化测试的硬件和人员需求。虚拟用户是一个代理,它模拟真实的用户来测试程序。通过使用虚拟用户生成器,用户可以生成虚拟用户。在生成虚拟用户后,用户可以定义压力场景了-这是业务操作和虚拟用户数量的结合。LoadRunner采用了可视化控制器——个交互的环境来组织、驱动和管理压力测试的场景。控制器通过驱动和同步真实应用和多个并发用户来执行测试。4.测试规模及限制测试系统的数据规模如下所示:序号类型数量1.XX数82.XX总数10282563.XX数24.XX数45.XXX数3693166.XXXX流水22977115.测试过程说明5.1.测试模型为了使性能测试尽量准确,必须要符合以下几点:>被测试的功能属于系统应用高峰状态的功能范围。>虚拟用户的在线或并发数量应模拟实际用户的在线或并发数量。A虚拟用户执行功能的方式应模拟实际用户执行功能的方式。性能测试报告11D6>数据库的数据规模尽量等于上线时的数据规模。根据上述条件,我们建立了合适的性能测试模型,包括期望响应时间、测试环境、测试场景、测试数据,使用不同类型的测试手段,同时使用监控手段,以期正确的检查系统的性能指标。5.2.测试案例根据性能测试的选取原则,共选择了典型案例8个。5.3.测试场景为了使测试过程和测试结果能尽可能准确地反映出现实的生产系统场景,本次测试过程选取了具有代表性的8项业务操作,另外,根据初步分析,在每种并发用户数条件下,为各项业务操作分配了一定数量配比关系的虚拟用户,详见下表。测试场景与虚拟并发用户分配表6.XXX查询510性能测试报告11D77.XXX明细查询10208.生成XXX510合计50100测试场景说明:根据系统的规模,进行2次压力场景测试,分别是:•50虚拟用户场景•100虚拟用户场景每次测试过程的场景如下:•加压方式:每1秒加载一个虚拟用户,以50用户压力测试为例,在50秒内加载完毕;•稳定运行时间:为了保证测试过程充分过程和数据准确,每次脚本运行的时间定为5分钟。•减压方式:同时卸载所有用户;•思考时间设置:按照录制时的思考时间重播。思考时间是客户等待的时间或者浏览网页时间,其间无鼠标和键盘操作。为了真实地反映实际情况,采用了实际的思考时间。•其他设置:完全模拟IE浏览器行为;模拟浏览器缓存;记录标准日志;网络带宽不限6.测试结果6.1.平均响应时间平均响应时间序号业务操作平均响应时间(秒)50user100user1.登录2.6102.9222.XXX查询1.0051.4113.XXX查询0.7680.981性能测试报告ODD+:3Dasioaa11D8Average•lr-9亘OJE匚s-.UD&aH務巴<4.XX信息查询0.2520.2975.XXX查询0.8211.226.XXX查询0.7931.1837.XXX明细查询0.3350.4928.生成XXX4.9209.15050用户平均事务响应时间AverageTramacdionReEpunEiOTimacosu口qLJESijet-a卑区—RoA」H1blA』3HbtalblAcd—匚A-IBnbl性能测试报告11D9100用尸平均事务响应时间6.2.差错率统计序号业务操作操作员数通过交易数失败交易数差错率1.登录5036800%10076000%2.XXX查询50197000%100338800%3.XXX查询50101600%100180600%4.XXX明细查询50191800%100243700%5.XXX查询50202400%100257100%6.XX信息查询50510000%100634300%7....