http 下载大文件出错,求帮忙??
Web Server是Nginx,客户端集成的libcurl,客户端通过http下载文件,大小接近400MB,100MB网络环境下同时连接上多台(其实也只有6台)客户端(测试2个客户端的话没有问题),在多次的测试中发现,有时下载会不成功,报错也有好几种:1、Connection reset by peer,服务器断开连接
2、sent partial file,文件传输不完整
请问下,该怎样排查出问题出个哪??请多提提建议,没这方面经验。 中毒了么?先用瑞星等工具查查先。 看看服务器接口流量跑满了吗? Server端是Ubuntu 14.04,对应的nginx版本是1.4.6,没有开防火墙
http response请看附件图片
再从/var/log/nginx/access.log中看到,服务器端发送的文件大小跟实际文件大小不符,服务器端用idstat查看,只有网卡数据几乎是满的,CPU还很闲置 下载了最新的nginx源码,从头开始编译,再次运行,在log里看到2015/10/19 18:16:55 9799#0: *81 client timed out (110: Connection timed out) while sending response to client, client: 192.168.1.212, server: localhost, request: "GET /path/to/download/file HTTP/1.1", host: "192.168.1.250"再次google,看到nginx论坛的相关帖子,增加了proxy_read_timeout,多次测试后发现还是出现上面的这次报错信息。 :lol先看看是不是专用的服务器吧 台机的螃蟹卡在大数据下会有问题 最好是换intel或博通的服务器专用网卡 最好能升级固件和驱动到最新 还得确认网线 交换机都没问题! 回复 6# rtm009
首先谢谢。
是中间设备引起的。
中间设备?
不是服务器上发出来的文件大小就不对吗?
页:
[1]