性能测试实践分享

简介: 性能测试实践分享性能点:营销招商活动,提交报名 前言:    以下是我在项目中完成的另一次性能测试实践,对性能测试还处于摸索阶段,如果有不准确的地方欢迎指点。一、简介批量提交报名,libra2manager应用处理请求,调用libra2center服务进行相关商品和卖家信息的判断,调用qc服务进行卖家商品资质判断是否可报名、成功后插入到数据库。

性能点:营销招商活动,提交报名

 

前言:

    以下是我在项目中完成的另一次性能测试实践,对性能测试还处于摸索阶段,如果有不准确的地方欢迎指点。

一、简介

批量提交报名,libra2manager应用处理请求,调用libra2center服务进行相关商品和卖家信息的判断,调用qc服务进行卖家商品资质判断是否可报名、成功后插入到数据库。

系统依赖图


二、期望值的评估

RT

按照统一标准制定为300ms

TPS

卖家端应用libramanager平时一天的总pv量为30w;期望pv=pv*5 = 150w (考虑平时的小型促销*5,卖家开放后需要重新开发并重新考虑性能)

根据计算公式

每秒**平均值 =( (PV*80%)/(24*60*60*40%))/服务器数量(4 =  pv/s   = 8

每秒**峰值 = (((PV*80%)/(24*60*60*40%))*1.6) /服务器数量(4=  pv/s   = 15 (平时最大的压力)

按照去年双12的场景,增加线上机器的情况下,预期TPS50 (开发提供的数据),则将此次TPS设置为50

三、Checklist

1、期望值评估

2、环境搭建:应用、数据库

3HTTP脚本(HSF脚本)

4、性能环境数据准备

5、功能是否已稳定

四、实施压测

压测结果

TPS RT 都不满足期望

原因分析:CPUJVMload

应用:libra2managerlibra2centerqcDB

应用libra2manager、libra2center、qc的cpu、jvm等值都正常,再看DB的表现

原因定位:DB连接过多,一次批量提交3条报名的操作大约有21次select、3次update、1次的delete、1次insert

  (天机系统中查看)

五、原因分解

原因分解-爬代码,看看为什么有这么多次的数据库操作,以下是调用的会操作到数据库的接口


数据库操作:>20 ,分析结论:

1、多次查询contentDoblockDo,有优化空间

2savesubmit报名记录前的查询目前是3条记录3次查询可优化成一次查询

六、调优

调优点

1、较多的contentDo查询,改用读取tair的方式(这个问题应该是可以规避的,由于多个模块由不同开发负责,开发们缺乏沟通,缺乏整体的统筹)

2、批量报名saveApplication方法和submitApplication方法前的查询,改成一次查询

3ContentBlockQualiRootService查询得到的QualiDo,作为ApplicationAcessService接口的入参,减少查询一次QualiDo

调优结果

结论

1、调优后,批量提交三条报名记录,对数据库操作约11次,整体TPS提升约2.5倍。

2、单submitResult方法种就有3~4次的数据库操作,这块功能经评审不是非常重要,决定后续增加开关,系统压力较大时,屏蔽该功能,进一步减少对数据库操作


性能点:活动列表查询

前言:

    以下是我在项目中完成的一次性能测试实践,对性能测试还处于摸索阶段,如果有不准确的地方欢迎指点。


一、简要介绍

    卖家进入淘营销系统,查看当前可报名的所有营销活动。前台应用libra2manager首先从vsearch读取当前在报名进行中的所有活动,qc读取 这些活动所需判断的所有指标项后获取卖家对应的指标值,根据指标项要求和卖家具体指标值判断卖家可报名的所有活动,展现在可报名活动列表中

    qc首先在tair中读取卖家指标值,若tair中不存在该指标值,则从对应的datasource中读取

    系统依赖图

二、期望值的制定

¨ RT

     所有活动列表按照统一标准制定为300ms;可报名列表业务调用的逻辑复杂度,再参照去年对列表的压测结果(分页有3s)和期望值(500ms),设置为500ms

¨ TPS

      卖家端应用libramanager平时一天的总pv量为30w;期望pv=pv*5 = 150w (考虑平时的小型促销*5,卖家开放后需要重新开发并重新考虑性能)

根据计算公式

每秒**平均值 =( (PV*80%)/(24*60*60*40%))/服务器数量(4 =  pv/s   = 8

每秒**峰值 = (((PV*80%)/(24*60*60*40%))*1.6) /服务器数量(4=  pv/s   = 15

三、系统设计阶段

qc的指标读取validate,以下四点是开发所进行的性能考虑

1. 提供批量验证接口,避免多次hsf调用。

2. 将资质数据读取方式从原有的懒加载改为预加载。合并多个资质树的资质,一次读取。

3. 并行数据读取。资质数据涉及多个系统(多个HSF调用),将多个HSF调用从串行改为并行

4. 并行验证。批量验证时采用并行的方式验证。

总结下来就是

1、abc:并行、tair

2、def:一次读取

3、多次调用变一次调用

其实大多数read方式的功能点都可以按以上三个方向去考虑性能问题,化串行为并行,化多次调用为一次调用,读取慢就考虑采用tair。

测试改进

原读取方式:合并指标项一次读取数据源a、b、c中对应所需的d、e、f

改进点:合并指标项一次读取数据源a、b、c中所有的指标值

举例,请求1需要数据源a中的指标d、e和数据源b中指标f;原读取方式是并行将a、b中的d、e、f读取出来;改进后的读取方式是并行将a、b中的d、e、f、g、h...都读取过来;它的性能提升将体现在下一次需要读取指标g、h...的请求N中

四、压测前的checklist

1、期望值评估:TPSRT

2、性能环境搭建

3HTTP脚本(HSF脚本)

4、性能环境数据准备

5、功能是否已稳定

五、压测

     第一次压测结果,我们期望结果能更好

场景名

并发用户数

事务名

性能指标

事务统计

TPS

RT(ms)

执行事务数

失败事务数

失败率

淘营销-list

14

canActions

22.961

506.519

82427

0

0%

allActions

22.963

104.37

82436

0

0%

淘营销-list

25

canActions

23.549

818.815

85010

0

0%

allActions

23.549

193.079

85010

0

0%

RT过高!

应用:Libra2manager->qc->Vsearch

分析:CPUJVMload

Libra2manager和qc的cpu、jvm都正常,Vsearch机器达到75左右,再通过profile打点判断RT消耗

原因定位Vsearch数据读取耗时占比>80%

这 里要提一个点,系统在设计过程中,考虑到性能问题,设置一次从vsearch读取的活动量为1024,获取第一批活动后即合并资质计算是否可报名,同时获 取第二批1024个活动,并行读取和验证。daily上目前是3100左右个报名进行中的活动,所以会有三次vsearch读取。

六、调优

    从结果上来看,vsearch读取耗时占比>80%的情况下,设计读取三次vsearch结果和qc验证并行可能不是最合理的。因此,调整一次vsearch读取的值验证性能表现

调优过程记录,将一次查询量上限设置为4000时性能表现最优。

¨

¨ 结论

1、当前活动量,一次将所有活动全部查询性能最好

2、当前线上处于报名中状态的活动为1943个,预计很长时间内将稳定在3000内,则将一次查询量数字确定设置为3000

七、最终压测结果


场景名

并发用户数

事务名

性能指标

事务统计

TPS期望值

TPS

RT期望值(ms

RT(ms)

执行事务数

失败事务数

失败率

混合场景:淘营销list

14

canActions

可报名活动

15

25.717

500

408.84

92322

0

0%

allActions

所有活动

15

25.72

300

139.184

92333

0

0%



相关实践学习
通过性能测试PTS对云服务器ECS进行规格选择与性能压测
本文为您介绍如何利用性能测试PTS对云服务器ECS进行规格选择与性能压测。
相关文章
|
18天前
|
安全 Linux 测试技术
提升龙蜥内核测试能力!探究持续性模糊测试优化实践
清华大学软件学院对Anolis OS使用靶向模糊测试方法将测试工作引向修改的代码,进而提高对业务代码的测试能力。
|
1月前
|
SQL 搜索推荐 测试技术
【Havenask实践篇】完整的性能测试
Havenask是阿里巴巴智能引擎事业部自研的开源高性能搜索引擎,深度支持了包括淘宝、天猫、菜鸟、高德、饿了么在内几乎整个阿里的搜索业务。性能测试的目的在于评估搜索引擎在各种负载和条件下的响应速度、稳定性。通过模拟不同的用户行为和查询模式,我们可以揭示潜在的瓶颈、优化索引策略、调整系统配置,并确保Havenask在用户数量激增或数据量剧增时仍能保持稳定运行。本文举例对Havenask进行召回性能测试的一个简单场景,在搭建好Havenask服务并写入数据后,使用wrk对Havenask进行压测,查看QPS和查询耗时等性能指标。
65364 6
|
2月前
|
安全 测试技术
测试团队的一次复盘实践
测试团队的一次复盘实践
142 0
|
3月前
|
安全 jenkins 测试技术
自动化测试与持续集成/持续交付(CI/CD)的实践与应用
自动化测试是现代软件开发不可或缺的环节,它可以有效地提高测试效率、降低测试成本。而持续集成/持续交付(CI/CD)则是一种基于自动化的软件开发流程,能够将代码的开发、构建、测试和部署等过程无缝连接起来,从而实现快速迭代和部署。本文将结合实际案例,介绍自动化测试和CI/CD的实践与应用。
144 2
|
5月前
|
算法 测试技术 Go
【Go 编程实践】从零到一:创建、测试并发布自己的 Go 库
解释了为何需要开发自己的 Go 库,以及如何创建、测试和发布。文章以 Asiatz 库为例,详细阐述了创建目录、初始化项目、编写代码、测试、编写文档和发布等步骤,并强调了开发自己的 Go 库的优点,包括代码复用性、可维护性和可测试性。
231 0
【Go 编程实践】从零到一:创建、测试并发布自己的 Go 库
|
3月前
|
机器学习/深度学习 搜索推荐 算法
推荐系统离线评估方法和评估指标,以及在推荐服务器内部实现A/B测试和解决A/B测试资源紧张的方法。还介绍了如何在TensorFlow中进行模型离线评估实践。
推荐系统离线评估方法和评估指标,以及在推荐服务器内部实现A/B测试和解决A/B测试资源紧张的方法。还介绍了如何在TensorFlow中进行模型离线评估实践。
187 0
|
25天前
|
传感器 监控 算法
【软件设计师备考 专题 】模块测试的方法和实践
【软件设计师备考 专题 】模块测试的方法和实践
68 0
|
27天前
|
敏捷开发 IDE 测试技术
深入理解自动化测试框架Selenium的设计理念与实践
随着敏捷开发和持续集成的理念深入人心,自动化测试在软件开发周期中扮演着越来越重要的角色。Selenium作为一个广泛使用的自动化测试工具,其设计理念和实践对于提高测试效率和质量具有指导意义。本文将深入探讨Selenium的核心设计原则、架构以及最佳实践,旨在帮助读者构建更稳定、高效的自动化测试系统。
|
27天前
|
jenkins 测试技术 持续交付
深入理解自动化测试框架设计原则与实践
本文旨在探讨自动化测试框架的设计原则及其在实际项目中的应用。通过对自动化测试框架的系统剖析,我们揭示了有效构建和维持测试框架的核心要素,并提供了一套实用的指导方案来帮助读者实现高效、可靠的自动化测试流程。文章不仅聚焦于框架的技术细节,也强调了灵活性、可维护性和可扩展性在设计时的重要性,同时结合实际案例分析,展示了如何在不同测试环境中定制化和优化测试框架。
|
29天前
|
机器学习/深度学习 敏捷开发 人工智能
深入探索软件自动化测试:框架与实践
【2月更文挑战第30天】 在快速迭代的软件开发周期中,自动化测试已成为确保产品质量和加快交付速度的关键因素。本文将深入探讨自动化测试的核心概念、常用框架以及在实际项目中的应用实践。我们将分析自动化测试的优势,并讨论其在不同开发阶段的作用,同时提出构建高效自动化测试流程的策略。通过实际案例分析,本文旨在为读者提供一套系统的自动化测试解决方案,以应对日益复杂的软件测试挑战。