- 论坛徽章:
- 0
|
1.机器配置:cpu 2.2G;mem 1G
2.apach配置:MaxClients=450;KeepAlive=6
3.根据2002年的一篇文献模拟尽量真实的用户对apache访问负载
Workload Parameter
Parameter Name Distribution Parameters
Session Length (# clicks) LogNormal μ= 5, σ= 3
Burst Length (# URLs) Gaussian μ= 5, σ= 3
User Think Time (s) LogNormal μ= 3, σ= 11
Session Inter-arrival time (s) Exponential μ=0.0001(heavy)
实验总共有1000个session,累计达到25000个HTTP请求,
从负载的平均效果,可以这样描述负载情况,
每0.1ms发出一个会话请求(是请求发送速度,不是处理速度),一个会话中,每隔大约36.8s点击一次网页,每次点击网页获得5个静态文件,这25000个HTTP请求,共获得25000个文件,文件比例如下:
文件大小(字节) 比例
500 35%
5k 50%
50k 14%
500k 0.9%
5m 0.1%
为了模拟尽量真实的用户负载,所以只调节μ,希望增大cpu利用率,根据文献来看,μ=0.0001这已经是很高的负载了,但是测得cpu利用率不过10%,内存也最多用到8%,我不知道是硬件配置实在太高了,还是这样的负载模型已经不算高了,还是我模拟负载中有什么错误。
如果这算是高负载,那岂不是说按这种硬件配置搭建一台web服务器,就足以承受任何负载?这个结果会不会荒唐了一些呢?
请各位给点意见,究竟我的问题可能出在哪儿?谢谢
 |
|