【性能测试】全链路压测,全链路压测方案

4747 1234 2023-01-23

本站部分文章、图片属于网络上可搜索到的公开信息,均用于学习和交流用途,不能代表睿象云的观点、立场或意见。我们接受网民的监督,如发现任何违法内容或侵犯了您的权益,请第一时间联系小编邮箱jiasou666@gmail.com 处理。

本文讲述了【性能测试】全链路压测,全链路压测方案。

一、什么是全链路压测

基于实际的生产业务场景、系统环境,模拟海量的用户请求和数据对整个业务链进行压力测试,并持续调优的过程。

像金融系统涉及到部门多,比如笔者曾经做性能测试时接触银行一个理财产品以及金融电商项目涉及关联系统:NDS(核心交易系统,本行金钱交易系统),CII(公安网验证,联网核查身份证信息系统),ESB(银行对外开展的金融业务电商平台),ICS,BPH(它行卡转账系统),SMS(短信系统),BLN(黑名单系统),通联(第三方支付平台,五要素验证),邦盛(第三方反欺诈平台验证),鹏元(第三方征信平台),ANF(东亚反欺诈系统),商汤OCR(人脸识别系统),ICA(银联综合认证,四要素认证),BDP(银行内部大数据平台),网跨平台,清算平台等,

像这么多的关联系统,如果是自己内部系统,可以沟通相关部门配合,搭建个性能压测环境,进行全链路演练。此外,如果外部第三方平台,基本全链路压测时要做个挡板服务器(掉第三方api时设置返回时间再实际范围内随机)模拟第三方,一般第三方服务也不一定配合做压测,即使配合,给的压测服务器也一般,无法作为压测环境

二、全链路压测解决什么问题

针对业务场景越发复杂化、海量数据冲击下整个业务系统链的可用性、服务能力的瓶颈,让技术更好的服务业务,创造更多的价值。

三、面对的问题点以及解决方案

1、业务模型梳理

先应该明确的是:全链路压测针对的是现代越来越复杂的业务场景和全链路的系统依赖。所以首先应该将核心业务和非核心业务进行拆分,确认流量高峰针对的是哪些业务场景和模块,

针对性的进行扩容准备,

2、数据模型构建

数据构建和准备,应该考虑这几点问题:

①、数据的真实性和可用性

可以从生产环境完全移植一份当量的数据包,作为压测的基础数据,然后基于基础数据,通过分析历史数据增长趋势,预估当前可能的数据量;

②、数据脱敏

基于生产环境的全链路压测,必须考虑的一点是不能产生脏数据,以免对生产造成影响,影响用户体验等,因此在数据准备时需要进行数据脱敏;

③、数据隔离

同样,为了避免造成脏数据写入,可以考虑通过压测数据隔离处理,落入影子库,mock对象等手段,来防止数据污染;

3、压测工具选型

全链路压测应对的都是海量的用户请求冲击,可以使用分布式压测的手段来进行用户请求模拟,目前有很多的开源工具可以提供分布式压测的方式,比如jmeter、Ngrinder、locust等。

可以基于这些压测工具进行二次开发。考虑到压测量较大的情况下回传测试结果会对agent本身造成一定资源占用,可以考虑异步上传,甚至事务补偿机制。

4、压测环境搭建

全链路压测都是基于生产环境,解决了业务模型和数据以及压测工具选型开发,就要考虑系统扩容和风险规避了,比如压测不能影响实际的生产业务运行,还有资源申请等。

5、系统容量规划

前面提到了业务拆分和流量预估,在系统容量规划阶段,首先应该对单个接口单个服务进行基准测试,调整配置参数,得到一个基准线,然后进行分布式集群部署,通过nginx负载均衡。

至于扩容,要考虑到服务扩容和DB资源扩容,以及服务扩容带来的递减效应。

至于大流量冲击情况下,可以考虑队列等待、容器锁、长连接回调、事务降级等方式来解决。

6、测试集群部署

能做全链路压测的业务系统,基本都是分布式系统架构,服务集群部署和负载均衡。

需要解决的问题有:

①、服务间通信问题

一般通信方式有两种:同步和异步。

同步调用:

REST(JAX-RS,Spring Boot)

RPC(Thrift, Dubbo)

异步调用:

(Kafka, Notify, MetaQ)

同步调用一致性强,但是要考虑性能和调用失败的事务处理。

异步调用的话,可以降低服务间的耦合,提升性能体验,但是一致性是需要解决的(分布式架构有个CAP理论,感兴趣的可以查询相关资料看看)。

②、负载均衡问题

需要将大流量冲击均匀的分发给集群上的每台机器,目前比较优秀的负载均衡服务器是nginx,但nginx的部署貌似也存在一些问题,我们公司之前就遇到过订单重复问题。

③、容灾问题

需要确保的一点是:当服务中的某台或者某部分服务宕机,可以及时的进行服务转发,而不至于连锁反应下整个系统链路的服务挂掉(可以参考我之前的博客:容灾测试)。

2、容灾测试遵循的标准

①、模拟极端错误发生,测试业务恢复功能和业务持续性流程;

②、发现平台潜在的隐患,确保出线突发情况时平台能够正常运行;

③、在极端流量冲击下,牺牲一小部分非主要业务功能或者一小部分用户体验,保障整体系统的稳定以及主要功能的正常运行(分流、服务降级);

④、进行测试时,需要同步分析日志(确认当前展示的结果是否是因为容灾测试用例生效而出现的)。

3、容灾测试的要点

①、核心原则:基于业务影响分析,全面提高IT系统的抗风险能力;

②、关注两个重要指标:RTO(恢复时间)和RPO(数据丢失量);

③、做好三件事:数据传输、业务切换、容灾演练和监控;

④、实现操作系统、文件、数据库、应用四项恢复。

7、数据收集监控

压测数据收集,需要由agent机回送给Contorller机器,但数据量过大会占用一定的资源,可以考虑异步实现测试结果回送。

至于监控,现在有很多优秀的专业监控工具,比如Nmon、Zabbix,全链路监控工具Zipkin、PinPoint以及携程开源的全链路监控工具CAT。

或者可以针对需要,二次开发JVM自带的一些监控工具,做到实时全方位监控。

双十一的技术准备在做两件事情:第一是系统的准备尽可能的接近真实,包括容量确定性和资源的确定性;第二是整个过程中的效率,包括人和单位资源效率。

< 演讲视频 >

class="video_iframe" allowfullscreen="" height="408" width="544" src="https://v.qq.com/iframe/preview.html?vid=n03597ffzp1&width=500&height=375&auto=0">

本视频来自阿里巴巴研究员蒋江伟在ArchSummit北京2016的演讲。

公众号后台回复关键词「双十一」下载演讲PPT。

亲历双十一

从2009年到2016年,参与了8届双十一技术备战工作。2009年的双十一,印象并不深刻,主要原因是当时整个淘宝的体量已经很大,每天的交易额已经有几亿的规模,而当时的淘宝商城双十一交易额只有5000万左右,和几亿比体量还是非常小的,所以感觉还没开始就过去了。

到了后面几年,每年都要花费好几个月的时间去精心准备,要做监控、报警的梳理,要做容量的规划,要做整个依赖的治理等等,也整理了各种各样的方法论。这是一个过程,当然在这个过程里面也沉淀出了很多非常有意义的事情。今天有人问我怎么做双十一,怎么做大促活动,我会告诉他一个非常简单的方法,就是做好容量规划,做好限流降级。

2008年,我加入淘宝,直接参与淘宝商城的研发工作。淘宝商城就是后来的天猫,当时整个淘宝商城的技术体系,和淘宝网是完全不一样的,是完全独立的体系。它的会员、商品、营销、推荐、积分、论坛,都和淘宝网没有任何的关系。两套体系是完全独立的,唯一有关系的是整个会员的数据是共享的。

2008年末启动了「五彩石项目」,把两套体系的数据打通、业务打通,最核心的点就是业务的发展变得非常灵活。这个项目的完成给淘宝商城的发展带来非常大的飞跃,后来淘宝商城也升级品牌为天猫。

另外,这个项目里还有一个很大的意义,就是比较优雅的实现了架构的扩展性、业务的扩展性和技术的扩展性。我们实现了整个服务的全部服务化,抽取了所有与电商相关的公共元素,包括会员体系、商品中心、交易中心、营销、店铺、推荐等。基于这个体系,构建后来像聚划算、电器城、航旅等的业务就非常快了。打破原来的架构,将整个公共的服务抽取出来之后,上层的业务跑得非常快,这就解决了业务扩展性的问题。第一次大规模使用中间件是在这个项目里,中间件3剑客,HSF、Notify、TDDL得到了很大的创新沉淀,并被大规模的使用。分布式带来的问题是一个系统被拆成了很多的系统,这其中也涉及到了扩展性的问题。这个项目也带来了技术的进步,从业务的发展到技术的扩展性,都达成了非常好的目标。

为什么要做容量规划?

2012年,我开始带中间件产品线和高可用架构的团队。那么为什么要做容量规划呢?双十一推动了阿里巴巴技术上非常大的创新,容量规划也是双十一在这个过程中非常好的创新。

今年做双十一的时候,老板问我今年还有什么风险?我告诉他风险肯定很多,但是最终如果系统出问题了,肯定发生在交易相关的系统里。阿里巴巴的系统分两部分:一部分系统是促进交易的,比如推荐、导购、搜索、频道等都是促进交易的,会做各种各样的营销;另外一部分系统做交易、红包、优惠等相关系统。

原因非常简单,导购类的系统留给你足够的时间去做判断,它流量的上涨不是瞬间上涨,而是一个曲线慢慢上升,它留给你30分钟做出判断。但是交易系统没有留出任何时间判断,一旦流量开始,没有给人反应时间,没有任何决策的时间,所有的行为只有系统会自动化执行。这个过程里面容量规划变的非常重要。

在早些年的时候,我们业务的自然增长本身就非常快。印象非常深刻的是,当时大家购物的时候打开的商品详情页面,有一段时间这个页面的负载比较高,公司召集了一些对于虚拟机调优、性能优化比较擅长的人来进行优化,调优了几天之后系统终于挂掉了。还好也在做一些扩容的准备,扩容完成,重启之后系统恢复了。这说明了什么?在早些年的时候,淘宝网也是一样,对容量的准备和预估是没有概念的,不知道多少容量能支撑整个系统需要的能力。

新业务不断地上线,业务运营、促销类的活动也非常频繁,记得有一次做一个促销规模非常大。会员系统非常重要,因为所有的业务基本上都会访问会员中心用户的数据,包括买家的数据还有卖家的数据。那时物理机单机缓存的能力大概在每秒处理八万请求的规模,今天来看是远远不止。但当时还没有到高峰期的时候就达到了六万,这是非常大的一个数字。

我们就把所有访问会员的系统全部拉出来,看哪些与交易无关就通知需要停掉,或者停掉一半。比如把与商家相关的,与开放相关的,与社区相关的系统停掉。在这个过程里面发生了各种各样的问题,总结来说就是我们根本不知道容量怎么去做,或者说根本就没有概念需要去做容量。所以容量规划归根结底就是:在什么时候什么样的系统需要多少服务器?需要给出有确定性,量化的数字。

容量规划的三个阶段

容量规划整个过程大概经历了七八年的时间,总共三个阶段。

这里写图片描述

第一个阶段在非常早期,我们评估的方法就是「拍脑袋」(经验判断)。根据负载的情况、系统的响应时间,各种各样的表现去拍一个数字出来。当时我问一个高管,到底怎么去判断服务器够还是不够,要支撑多少流量?他告诉我一个经验值,每台服务器支持100万的PV。

当时一天的流量曲线会有三个峰值,九点到十点,中午两、三点到五点,晚上八点到十点之间都是峰值。为什么是100万呢?这也是一个经验值,当然也有一点科学根据。我们希望做到一半的服务器停下来后能够去支撑线上的流量,同时在峰值的情况下,全部能够支撑住。实际上单机能支撑320万的PV,这是当时的经验值。

当然这个经验值当时是起作用的,原因非常简单,因为当时的系统架构简单。可以理解为把整个淘宝所有的逻辑和模块都集中在一个系统里面,所以各个模块之间的热点有时间差,通过一台服务器内部CPU的抢占或者调度在OS层面就解决了。

到了第二个阶段是线上压测阶段。因为一旦到了分布式之后,就会出现问题。举个例子,本来是会员的调用和交易的调用在一台服务器上,但是分开之后,流量比例就不清楚了。所以必须要引入一些压测机制,我们引入一些商业的压测工具来做压测。

当时有两个目的:第一个是系统上线之前要做压测,判断响应时间、负载能否达到上线的要求;第二个目的是希望能够根据线下的压测情况,准确地评估出线上大概需要多少服务器。第二个目的做起来就比较困难一些,记得当时性能压测团队还做了一个项目,叫线下线上容量之间的关系。因为线上的环境和数据与线下完全不一样,这里面没有规律可寻,没办法通过线下压测的指标反馈到线上去。这时候怎么办?首先是直接在线上压测。当时来看我们做这个决定是非常疯狂的,因为没有一家公司,包括阿里巴巴自己也没有人在线上直接做过压测。我们写了一个工具,拉取出前一天的日志直接在线上做回放。比如,根据响应时间和负载设定一个的预值,达到预值触发的时候看它QPS的多少值。

其次我们做了一个分流。因为阿里整个架构还是比较统一的,全部是基于一整套的中间件,所以通过软负载,通过调整配比,比如把线上的流量按照权重调整到一台服务器上,通过调整到应用端和服务端不断地调整到一台服务器上去,增加其权重,这时候它的负载也会上升,QPS也会上升,把这个过程记录下来。

这里已经是两种场景了,一种是模拟,回放日志。第二种是真实的流量,把做成自动化让它每天自动跑产生数据。这个事情做完之后,它从一个维度来说,替代了线下性能压测的过程。因为它可以让每个系统每天自己获得性能的表现情况。项目发布,或是日常需求的发布的性能有没有影响的指标都可以直接看出来。后来性能测试团队就解散了。

这里有个问题,它还没有基于场景化。场景化非常重要,比如我买一件衣服,平时买东西的流程可能是在购物的搜索框里面搜索,或者是在类目的导航里搜索,从搜索到购物车,再到下单这样的一个过程。双十一推的是商品的确定性,很多频道页面会把卖家比较好的促销商品直接拿出来作为一个频道页。双十二的时候推的是店铺,KPI不一样,推的东西也不一样。

双十一商品相关的服务器系统的流量会高,它所需要的服务器也会更多一些。双十二和店铺相关的系统服务器所需要也会更多一些。这与平时的流量表现是不一样的,用平时的容量去计算场景化流量,这也是不准确的。

我们也做了一件非常重要的事情:全链路压测。这是我们在2013年完成的事情,之前从没有对外讲过,这是一个核武器,它有个分界线。2009年是最顺利的一次双十一,因为没有什么流量,我们忽略不计。2010年、2011年、2012年,其实每年的双十一总是有那么一些小问题,其实心里也没底。

在2013年的时候,我们做了全链路压测这个产品之后,发生了一个本质的变化。2013年的表现非常好,2014年也非常好,这就是一个核武器的诞生。对于做营销和促销类的,它是有峰值的,在这个时间点之前峰值非常低,这个时间点之后峰值突然上去了。这就是处理这种情况非常有效的一种方法。

从线下到线上:单机压测的容量评估

这里写图片描述

重点分析一下线上压测和场景化的全链路压测。线上压测主要是由于淘宝的业务形态多样化。分布式之后各种各样的业务都出现了,它帮助解放了生产力。以前一百多个人在做一个系统,非常糟糕,但是通过分布式改造之后,整个业务服务抽象出来之后,生产力被解放了。

其次,每个业务的机器规模非常大,每个业务应用数量非常大。我们其实是做了一个分层,根据一个系统具备的容量不断计算,最后计算出来阿里巴巴的集群容量。我们先做一个应用系统,通过分流,流量通过负载导入,把负载跑到最高之后计算。把这个APP整个集群,比如100台服务器能支撑多少量计算出来。当然数据库非常难算,数据库都是提前规划的,一般来说数据库分库分表之后,都是留了好几年的量,比较困难一些。

通过这样把整个集群的量和规模全部做出来是有问题的,为什么呢?因为系统一旦开始拆分之后一发而不可收拾,拆得越来越多。系统的依赖关系虽然是有工具能够梳理出来的,但是我们没有经历看到底哪些系统会因为这个场景下面什么原因导致整个集群出现了一个小问题。一旦出现了一个小问题,整个集群全部崩溃掉,这种问题是没法避免的。

在2013年之前都是基于这套体系去做,想想也是挺合理的,每个系统算出容量,一个个集群算出来,再算出整个大集群也是可以的,但是它还不是一个非常好的解决方案。它非常好的一点是可以自动化运行,可以每天跑出系统的容量,并且可以保证系统不腐化,日常的性能、指标不腐化。

压测平台的架构

这里写图片描述

2013年的双十一是通过这套系统做的。通过几种方式,通过模拟以及流量的复制,转发的引流,还有负载均衡的流量去实现。整个系统做成自动化,每周都会跑,根据发布前后的一天跑出来数据之后生成一个报表反馈性能有没有下降可以得出。根据计算值准备整个活动流量大概要多少。这里有一些数据,每个月有5天自动做压测,这种情况下靠人工做性能压测是做不到的,因为它是自动化的。

刚才也讲了一些缺陷,它是以点到面,通过一个点的容量评估,扩展到一条线,扩展到一个面。最大的问题是没有一个人搞得清楚整个架构到底怎么样,整个系统依赖关系里有遗漏之后会形成整体的崩溃。

这里写图片描述

为什么要做场景化的容量评估?

我们需要场景化压测的另外一个原因是因为整个背景的流量大部分用的是分流,分流意味着是用真实的流量去做的,所谓真实的流量其实是很低的,和做活动相比流量非常低,没有背景流量整个机房的网络设备和交换机的流量无法跑满,所以这些问题是没办法暴露出来的。第二个问题是场景化的确定性,每个人购物流程是不一样的,在不同的流程下面整个系统的资源必须确定下来,要用最少的服务器支撑最大的量。

基于此,当时有一套争论,要怎么做场景化压测这个事情?第一种方法,把整个淘宝网隔离出一个小的环境里面布100多个系统。整个流量引进来,把集群跑满,流量跑满。它比较好地解决了依赖关系的问题,如果依赖出现问题的时候,在这个环境是能够验证的。但是没办法解决环境的问题,那一年我们公司有一个业务,就是因为没有采用这套方案,采用了类似于小环境的流量去验证的方案,导致入口交换机的整个流量跑满。

场景化容量评估

这里写图片描述

所以需要有一个更简单可靠的评估工具,这就是基于场景化的全链路压测。2013年之后我们全部基于这套体系在做,首先要造数据,流量希望能够更接近真实的情况造出来。刚才提到临近峰值是没办法做决策的,唯一能做的是什么?能够提前模拟一次零点的峰值是什么样子的吗?我们希望把整个流量模拟出来,这是一个理想的架构,但是它也有很多困难的地方。

我们要尽可能把数据造得精确,各种场景都要模拟出来,比如优惠券如何使用,购物车里商品比例是多少,一次下单有多少商品,最后多少商品提交到支付宝等等。数据量每年越来越大,比如以2015年为例,数据量接近1T,把这1T的数据传到中心,通过中心传到压测节点上去,这就是压测集群。它是一个压测工具,但是它本身又是一个集群性的压测工具,它可以产生非常巨大的流量,与双11一模一样规模的数据。

把集群部署到CDN节点上,产生巨大的流量。这里有一些技术点,压测的工具要支持多种协议,比如HTTPS协议,需要提升性能。还要做流量的控制,根据业务场景的不同调节流量。第三点流量需要染色,右图反映了真实的流量,这些全部是在线跑的,没办法在线下模拟这个环境,否则会影响线上正常的流量,所以要把正常的流量和压测的流量完全区分开来。第四点是流量的隔离。没有流量隔离之前,我们只能在零点以后流量很低的时候,每个人都盯着自己的系统有没有出现什么问题,非常辛苦。第二年提了一个目标,希望能改善大家的幸福指数,所以我们推出了流量隔离。

这里写图片描述

流量隔离是把整个集群从原来在线的集群,比较快地通过负载均衡隔离出一个集群出来。当然隔离出的集群规模是非常大的,它可以占原来集群的从90%到10%。比如原来有10万台服务器,可以隔离到9万台服务器。因为准备做大促的时候,比如双十一的流量是平时的20倍以上,所以平时流量非常低是可以隔离出来的,并且不会影响现有的流量。

整个过程是怎么样的?以图为例,ABCD这4个系统是日常的流量,原始的场景C所需要的服务器多,但是压测之后发现B和D需要的服务器比较多。整个过程都是自动化的,如果C不需要这么多服务器,它的服务器就会被下线,这些服务器就被自动加到B和D。由于都是自动化跑,效率非常高,而且不需要到凌晨跑。最后需要把隔离出来的集群还到原来在线的集群,变成服务器的比例,就可以准备第二天的大考了。

容量评估的流程

这里写图片描述

整个容量评估的流程,从数据构造到流量环节,我们都有一个指挥部。比如我们要做一次活动,这次活动大概要5万笔每秒的交易量,输入5万笔每秒这个数字之后,整套系统开始运作,做压测、做弹性调度、做隔离,这就是整个自动化的过程。容量是可以预测的,但是没办法规划,只能做限流。我们可以非常精确地预测出双十一大概会来多少量,会来多少用户,以及当时的峰值,都可以完全精确预测出来。

但预测出来也没有太多的意义,能做的就是限流笔数,比如2016年我们做到了17.5万笔,限流的值设定到了17.2万,所有的系统先设定到这个值。这也是没办法的,因为真实的流量比这个大得多,要支持真实的流量成本会非常高。

日常占有的服务器是非常低的,在大促的时候我们基本上都采用阿里云的服务器,所以成本下降明显。所以说整个容量规划限定了一个值,比如说17万,明年可能是20万,或者25万,在这个值的基础上,通过基于场景化的全链路压测工具,然后把整个系统的容量压测出来,计算出来,把整个服务器资源占用拉平。这样做的好处是用了最少的资源做了一次最成功的活动。

场景化容量评估的表现

这里写图片描述

从2013年开始,我们通过这套技术发现了大量的问题,而且这些问题经过日常的测试,功能测试,或者一些工具的测试,是没办法发现这些问题。硬件、网络、操作系统的问题,从来没有发现的问题全部暴露出来,在大负载情况下表现出各种诡异的问题。

任何一个问题在双十一发生,可能都是灾难性的。2013年我们做完这些事情之后,回头看2012年、2011年,不出问题还怪,肯定会出问题。凡是峰值流量是平时峰值超过多少倍以上的活动肯定会出问题,因为很多的问题没办法通过一些逻辑,通过一些思考找出来的,它必须借助一个真实的环境,模拟出所有场景的流量把它营造出来。

容量评估的总结

这里写图片描述

容量规划是一个领域、一个长时间的过程。最初利用商业软件做性能压测,当时觉得这个软件应用挺好的,也能够支撑整个容量的一些计算,甚至今天很多的公司还在用类似的软件做性能的评估,它也是不断引进的过程。后来发现,其实与真实压测评估的容量还相差非常远,所以我们引入了线上的压测,引入了分流、复制流量、及日志的回放,通过一个个节点把自己的流量评估出来。

当时觉得这套系统很厉害,因为当时做了这套系统获得了整个技术部的创新大奖,所以觉得有了这套系统以后,以后做双十一就不用愁了,做任何活动就不用愁了,觉得这是非常了不起的系统。实际情况还是需要不断地发展,做了全链路压测,整个链路基于场景化的真实场景模拟,把整个集群压测出来。

回过头来看,在一个领域里面,当自己满足于当前现状的时候,比如说CSP“日常的压测平台”能够完全满足于当前现状,而且已经领先于国内很多产品的时候,其实你还是可以继续往前走一步。

我们只是做了双十一创新里容量规划这个点。阿里巴巴整个技术架构非常统一,因为做了全链路压测之后,很多的业务单元,像支付宝等等都可以采用这种方式做,它可以非常简单地复制出去,这也给我们带来了非常低的成本。从研发开始到学习,以及运维的过程,运维的产品线,带给了我们非常低的成本。所以我们整个团队人非常少,做全线路压测就4、5个人,但是它服务了整个集团100多个业务方,这也是因为整个架构的统一性。

今年双十一做完了之后,我们的CTO也给我们提出了新的挑战:双十一的整个过程可以投入更少的成本,全链路压测是对日常系统的一种验证,而不是找问题本身,同时希望我们的系统更加的自动化和智能化。我们正在思考如何实现。

上文就是小编为大家整理的【性能测试】全链路压测,全链路压测方案。

国内(北京、上海、广州、深圳、成都、重庆、杭州、西安、武汉、苏州、郑州、南京、天津、长沙、东莞、宁波、佛山、合肥、青岛)睿象云智能运维平台软件分析、比较及推荐。

上一篇:人工智能领域科学家排名
下一篇:基于Jmeter的性能压测平台实现,性能压测工具
相关文章

 发表评论

暂时没有评论,来抢沙发吧~