作者回复: 不仅深得真传,还扩展了。 我看好你哦。
作者回复: 这个理解太正确了。比我写的好。
作者回复: java的可以用jvisuamvm之类的工具看。
作者回复: 去掉ramp up。
作者回复: 通过统计每秒的业务请求数以及比例就可以知道并发度了呀。
可不能把脑袋拍坏了。
作者回复: 多谢支持。
作者回复: 我觉得这个会是比较简单直接的过程,所以就没有细写。逻辑如下:
1. 统计某时段的当前在线用户数;
2. 统计同一时段的操作某个功能的用户数;
3. 把所有功能操作的用户数都统计出来;
4. 将统计出来的用户数除以在线用户数就知道并发度了。
作者回复: 不是的。并发度肯定是通过线上的数据统计计算得来的。
任何一个新系统,要说完全没有容量的预期,这个是不可能的。
作者回复: 算瞬间值试试。
作者回复: 场景中很多配置元素都会有影响,像ramp up,sleep之类的。这公式对每个瞬间的数据都是有效的。但对结果的平均值就得考虑很多因素了。
作者回复: 这个如果要详细说下来有点复杂。等我把这个专栏全部完成了。我考虑下做个实例出来描述具体的过程吧。
如果只是空口白牙的解释,我觉得怎么解释都显得空洞。
等我。
作者回复: 理解的基本没啥问题。
作者回复: 理论上是对的。只是实际上由于资源的调度会有稍微的降低。
作者回复: 只是T的内容会不同,而不是T在这时有局限性。
作者回复: 没看懂描述的问题。
作者回复: 压力机中的并发线程数是产生请求的。它和tps是强相关的。
之所以我不建议用压力机中的并发线程数来承载服务器端的性能指标,是因为并发线程数即不能描述并发用户数,也不能描述在线用户数。
我们通常在说服务端支持的并发用户数是指每秒能处理多少个用户的业务(也就是TPS)。
作者回复: 不可以。
再看一遍。
作者回复: 这个要看业务指标了。
在要求严格的业务指标中错误率会要求为零。像和钱相关的业务。
作者回复: 一个线程迭代发送请求,这本来就是压力机的逻辑呀。
一个线程发一次是5ms。那1s就是发200次。不就是200tps嘛。