- 论坛徽章:
- 0
|
咨询一个问题,目前我们在测试一个文件系统,如果效果好的话,引入到我们的系统中。这个系统我们是安装的本地文件系统,可以理解成一个本地的NFS文件系统。当前的问题是这样的,使用两台配置完成相同物理机器,一个安装文件系统,一个使用传统的EXT3挂载;从测试的现象来看,两台服务器的负载都可以达到网络最大吐出能力(网络出口后2块1GE网卡做绑定mode 5,吐出流量达到1.95G以上)。当达到以上业务吐出高峰时,使用vmstat查看安装了文件系统的服务器IO等待在15%左右,低于对比机7个百分点。但安装了文件系统的机器出现大量的新建连接失败,而未安装的文件系统的机器不存在这样的情况。
测试方式:
1. 预先将文件分布到不同的数据硬盘上,然后使用nginx对外提供下载。
2. 每一个文件基本完全相同,大小均为20M。
当安装文件系统出现大量连接失败的时候,在message里面看到这样的日志:
Jan 16 05:00:01 iCache syslog-ng[3561]: Configuration reload request received, reloading configuration;
Jan 16 05:00:01 iCache syslog-ng[3561]: New configuration initialized;
Jan 16 05:00:02 iCache kernel: [173338.832158] __ratelimit: 2 callbacks suppressed
Jan 16 05:00:02 iCache kernel: [173338.832161] martian source 129.42.8.255 from 129.42.8.248, on dev bond0
Jan 16 05:00:02 iCache kernel: [173338.832163] ll header: ff:ff:ff:ff:ff:ff:00:22:a1:09:05:3e:08:00
Jan 16 05:00:02 iCache kernel: klogd 1.4.1, ---------- state change ----------
Jan 16 05:00:02 iCache kernel: [173339.331407] martian source 129.42.8.255 from 129.42.8.248, on dev bond0
Jan 16 05:00:02 iCache kernel: [173339.331410] ll header: ff:ff:ff:ff:ff:ff:00:22:a1:09:05:3e:08:00
Jan 16 05:00:03 iCache kernel: [173339.830659] martian source 129.42.8.255 from 129.42.8.248, on dev bond0
Jan 16 05:00:03 iCache kernel: [173339.830661] ll header: ff:ff:ff:ff:ff:ff:00:22:a1:09:05:3e:08:00
Jan 16 05:00:03 iCache kernel: [173340.329920] martian source 129.42.8.255 from 129.42.8.248, on dev bond0
Jan 16 05:00:03 iCache kernel: [173340.329922] ll header: ff:ff:ff:ff:ff:ff:00:22:a1:09:05:3e:08:00
Jan 16 05:00:04 iCache kernel: [173340.829170] martian source 129.42.8.255 from 129.42.8.248, on dev bond0
大家有没有遇到过这种问题,我们应该从那方面入手解决新建连接失败的问题?http 并发量在4000左右。
|
|