㈠ 服务器性能测试中有哪些常用的性能指标
服务器性能测试中有以下常用的性能指标:
【吞吐量】 固定时间间隔内的处理完毕事务个数。通常是1秒内处理完毕的请求个数,单位:事务/秒(tps);
【平均吞吐量】一段时间内吞吐量的平均值。无法体现吞吐量的瞬间变化;
【峰值吞吐量】一段时间内吞吐量的最大值。是用来评估系统容量的重要指标之一;
【最低吞吐量】一段时间内吞吐量的最小值。如果最小值接近0,说明系统有“卡”的现象;
【70%的吞吐量集中区间】通过统计15%和85%的吞吐量边界值,计算出70%的吞吐量集中区间。区间越集中,吞吐量越稳定。
㈡ 如何测试服务器
服务器测试方法
服务器测试方法分为两个大方面,性能测试与功能测试。
我们在性能测试方面采用了新的测试方法,主要分为文件测试、数据库性能测试与
Web
性能测试三个
方面。其中,文件性能与数据库性能采用美国
Quest
软件公司的
Benchmark Factory
负载测试和容量规划
软件,
Web
性能测试则使用了
Spirent
公司提供的
Caw WebAvalanche
测试仪。
一、性能测试
1
、文件性能测试方法
Benchmark Factory
软件能按照文件读写的关键指标定制事务。软件最大支持
1000
个虚拟客户。
本次测试环境包括
10
台配置为
PIII800/128MB
内存
/20G
硬盘以上的客户端,它们用来模拟虚拟用户。
控制台为配置是
PIII 850/128MB
内存
/40G
硬盘的
Acer
笔记本电脑。交换机为带有两个千兆
GBIC
接口、
24
个
10/100M
自适应端口的
Cisco 2950
,客户端与控制台通过
100M
网卡连到交换机上,被测服务器则通
过千兆光纤网卡与交换机相连接。
被测服务器均安装带
SP4
的
Windows
2000
Advanced Server
操作系统,在所有三项性能测试中都统一
RAID
级别为
5
。
在具体测试方案设置上,测试软件把决定文件读写操作的关键因素设定为:读
/
写、随机
/
顺序、操作
块大小、对象大小四个。在本次测试中,考虑到我们设有单独的数据库及
Web
测试项目,所以在文件测试
中,我们把目标确定为测试服务器基本的
I/O
性能,这主要由网络接口、系统带宽、磁盘子系统等几大部
分所决定。同时,从几部分的作用看,以大操作块读写大对象文件,小操作块读写小对象文件,较能反映
服务器最基本的
I/O
性能,即“大操作块读写大文件”对系统带宽、缓存的考察,以及“小操作块读写小
文件”对磁盘子系统、网络接口的考察。最终我们确定的四个事务是:
大文件顺序读写
(
操作块
8KB
,对象文件
80% 500KB
、
20% 1MB)
大文件随机读写
(
操作块
8KB
,对象文件
80% 500KB
、
20% 1MB)
小文件随机读
(
操作块
1KB
,对象文件
80% 1KB
、
10% 10KB
、
10% 50KB)
小文件顺序写
(
操作块
1KB
,对象文件
80% 1KB
、
10% 10KB
、
10% 50KB)
每个事务的用户数均以固定步长逐渐增加,
最大可增加到
1000
个虚拟用户。
其中,
“大文件顺序读写”
事务的用户数按照
40
的步长从
1
可增加到
400
个
(
测试至强服务器
)
或
200
个
(
测试
TUALATIN
服务器
)
,其
他事务则将用户数按照
100
的步长从
1
增加至
1000
。我们期望得到其在不同用户数时被测服务器的性能表
现。总体上其走势及峰值反映了该服务器的性能。每项事务均运行三次,每次之间被测服务器进行重启,
最终结果为三次平均值。
2
、数据库性能测试方法
“乘机安全小贴士”安全出行要重视
数据库性能测试同样使用了
Benchmark Factory
软件,测试环境如同文件性能测试。测试时,在被测
服务器上安装
SQL Server 2000
使用企业版。首先在被测服务器上创建新的数据库,通过使用
Benchmark
Factory
预定义的
Database Spec
项目向数据库中创建表,装载数据。在服务器端创建以
CPU
计算为主的
存储过程,通过
10
台客户机模拟用户、按照
40
个虚拟用户的步长递增到
400
个用户,执行该存储过程。
结果是以获得的每秒事务数
(TPS)
衡量服务器的数据库事务处理能力。
整个测试分为三次,
每次之间重新启
动被测服务器,最终取三次平均值作为评价结果。
3
、
Web
性能测试方法
Web
性能测试工具是由
Spirent
公司提供的
Caw WebAvalanche
。
WebAvalanche
模拟实际的用户发出
HTTP
请求,
并根据回应给出具体的详细测试结果。
它有以下特点:
能够模拟成百上千的客户端对服务器发
出请求
;
能够模拟真实的网络应用情况,
比如网站在高峰期的访问量应该是动态的维持,
有新客户端的加入,
同时也有原客户的离去,
访问量不是固定不变的
;
可以产生
20000
个连接
/
秒请求量,
足以满足测试的需要
;
测试项目丰富,有访问请求的成功失败数,有
URL
和页面的响应时间,有网络流量数,还有
HTTP
和
TCP
协
议的具体情况。
测试时,被测服务器与
WebAvalanche
上都装有千兆光纤网卡,两网卡通过光纤直接连接。监控端
(
配
置为
PIII 1GHz/128M
内存
/20G
硬盘
)
安装了带
SP4
的
Windows 2000 Server,
该监控端与
WebAvalanche
通
过交叉线直连。在监控端通过
Web
浏览器配置
WebAvalanche
,在被测服务器安装了
SQL Server 2000
企业
版,并用微软的
IIS
建立了
Web
服务器。
测试分为静态性能与动态性能两部分。主要是因为在实际的
Web
应用中,有的站点静态内容居多,提
供的服务也绝大多数是静态的,
因此,
他们就会特别的关心服务器静态性能
;
同样,
有的站点提供的服务交
互性的内容居多,他们就会更关心服务器的动态性能。
被测网站中页面大小及静态、动态页面所占比例均参照实际网站得出,整个网站静态、动态页面所占
比例是
70%
和
30%
,使用的动态页面类型为
ASP
。请求页面样本的文件大小分布比例与整个网站的相同。
静态性能测试模拟发出的均是静态页面请求。在测试动态性能时,动态页面的访问请求占
20%
,其余
80%
为静态页面请求。我们根据实际的
Web
服务器一天中的运行情况建立了一个服务器页面请求模型,该
模型由
4
个阶段组成,第一阶段是预热阶段,
WebAvalanche
发出的请求量由
0
慢慢上升到
200;
第二阶段
是逐步加压阶段,请求量逐步累加到最大值
8200;
第三阶段是动态维持阶段
;
第四阶段是下降阶段,请求量
由最大值迅速下降为
0
。其中,最大请求量略大于实际服务器能够提供的事务处理量。
被测服务器的静态与动态测试分别测试三遍,每遍之间被测服务器和测试仪均重启,结果取三次的平
均值。由此可见,此服务器测试方法立志于最终结果的准确性。
二、功能测试
在功能测试方面,我们对被测服务器的可扩展性、可用性以及可管理性进行了综合评价,其中可扩展
性包括硬盘、
PCI
槽以及内存等的扩展能力,可用性包括对热插拔、冗余设备
(
如硬盘、电源、风扇、网卡
等
)
的支持,可管理性则指的是服务器随机所带的管理软件。
我们在对服务器进行总体评价时,综合了性能、功能和价格三方面因素,依据《网络世界》所做的用
户调查结果,分别给予不同权重,性能占
50%
,功能占
40%
,而价格则占
10%
。在分析性能时,数据库性能
占其中的
50%
,而文件性能占
30%
,
Web
性能占
20%
。
综上所述,这种全新的服务器测试方法更够更准确更直接的对服务器进行测试,而且数据更加精确。
希望能给又需要的读者朋友带来一定的帮助
。
谢谢采纳。
㈢ 性能测试包含了哪些测试
性能测试都包括以下几个方面:
负载测试 -- Load Testing
在一定的软件、硬件及网络环境下,通过改变系统负载方式来发现系统中所存在的性能问题。测试服务器的性能指标是否在用户的要求范围内,用于确定系统所能承载的最大用户数、最大有效用户数。关注不同用户数下的系统响应时间及服务器的资源利用率。
压力测试 -- Stress Testing
在一定的软硬件及网络环境下,通过模拟大量的虚拟用户向服务器产生负载,使服务器的资源处于极限状态下长时间连续运行,用以测试服务器在高负载情况下是否能够稳定工作,目的是找到系统在哪里失效以及失效时候的反应。比如CPU达到极限,内存溢出,资源无法回收,系统无响应等,均是失效的表现。
配置测试 -- Configuration Testing
在不同的软件、硬件以及网络环境配置下,通过运行一种或多种业务在一定的虚拟用户数量情况下,获得不同配置的性能指标,用于选择最佳的设备及参数配置。
容量测试 -- Volume Testing
在一定的软硬件及网络环境下,向数据库中构造不同数量级别的数据记录,通过运行一种或多种业务在一定的虚拟用户数量情况下,获取不同数据级别的服务器性能指标用以确定数据库的最佳容量。
㈣ web测试中对客户端和服务器的性能测试都涉及到什么
这种就类似于云计算等后端基础服务的测试,对于一些大的公司,会有一个专门的团队来开发这种后端基础服务,这种服务当然也需要测试人员来保证质量。
这类服务一般都是通过HTTP接口的方式提供给刚才讲的WEB/APP的后端使用,所以,第一个要做的也就是接口测试,也就是用Postman等工具做手工测试、用TestNG+HttpClient或者Python的Nose框架做自动化测试。
不过,对于这类后端服务来说,接口只是暴露给外用的部分,内部逻辑通常是非常复杂的,所以,除了针对接口做测试之外,测试人员还需要细致地了解这些服务端产品的技术框架及技术实现,需要了解到模块的级别,对于系统框架图、时序图等都有很好的理解。针对这些理解去设计用例,再跟开发一起讨论如何实现用例。
如果这种基础服务用了某一个开源软件,那通常也需要测试人员能关注社区的进展,并把我们发现的Bug及解决方案等推到社区,为社区做贡献。
除了接口测试之外,在我们公司,异常测试、稳定性测试、性能测试也是服务端测试必备的测试类型。
异常测试会模拟各种异常情况,比如硬件异常-机器挂掉的情况下能否启动备机、硬盘挂掉的情况下是否会丢失数据;网络异常-网络忽然断掉、或者网络流量变小的情况;系统异常-操作系统忽然挂掉的情况。这些极端的情况出现的时候,我们需要验证数据有没有丢、能不能尽快启动备机对外提供服务、系统状态有没有异常等。我们会采用各种方式或者工具来模拟这些异常,比如用TrafficControl工具来控制网络流量。
稳定性测试,就是模拟系统在7*24的运行下会不会出问题,一般会用接口测试或者性能测试用例不断地跑,在运行期间,我们会模拟各种情况,比如说负载的变化、系统的各种干扰等。可以用ChaosMonkey等工具来进行这类测试。
性能测试,其实细分起来会有各种类型,比如负载测试、压力测试、配置测试、甚至还有线上压测、容量规划等。最常规的性能测试,一般是先规定一个系统需要承受的压力,比如说,某一个系统,1个小时之内会有1W单的单子,那基于这个需求我们分析服务器后端需要承受的压力,分析出来以后,就写性能测试脚本,然后逐渐增加压测的力度,直到超过这个预定的压力。通常在这个测试过程中会发现各种问题,比如数据库索引没有建、线程池太小、系统异常等。需要解决了之后再加大压力测试。也是用Grinder/JMeter等工具来进行性能测试,不过难的不是这些工具的使用,而是发现问题以后的定位。
对于这种后端服务的测试人员来说,技术上的要求是挺高的,需要有较好的编程能力,需要对数据库、操作系统等机制有很好的了解才行。