Oct 17 14:56:04 server kernel: e1000: eth0: e1000_watchdog: NIC Link is Down
Oct 17 14:56:08 server kernel: e1000: eth0: e1000_watchdog: NIC Link is Up 100 Mbps Full Duplex
Oct 17 14:56:09 server kernel: e1000: eth0: e1000_watchdog: NIC Link is Down
Oct 17 14:56:15 server kernel: e1000: eth0: e1000_watchdog: NIC Link is Up 100 Mbps Full Duplex
CPU0
0: 5208209 IO-APIC-edge timer
1: 2 IO-APIC-edge keyboard
4: 30 IO-APIC-edge serial
8: 1 IO-APIC-edge rtc
9: 0 IO-APIC-level acpi
15: 108463 IO-APIC-edge ide1
21: 15700851 IO-APIC-level eth0
22: 15716884 IO-APIC-level eth1
NMI: 0
LOC: 5208446
ERR: 0
MIS: 0
原帖由 "platinum" 发表:
你们的 iptv 服务器的 CPU 负载高吗?
我的服务器 CPU 一直很高
或者网络里面有人捣乱的话,用 dos 工具去弄网关这台机器,一样也会 over。。。。
This value delays the generation of receive interrupts in units of 1.024 microseconds. Receive interrupt reduction can improve CPU efficiency if properly tuned for specific network traffic. Increasing this value adds extra latency to frame reception and can end up decreasing the throughput of TCP traffic. If the system is reporting dropped receives, this value may be set too high, causing the driver to run out of available receive descriptors.
CAUTION: When setting RxIntDelay to a value other than 0, adapters may hang (stop transmitting) under certain network conditions. If this occurs a NETDEV WATCHDOG message is logged in the system event log. In addition, the controller is automatically reset, restoring the network connection. To eliminate the potential for the hang ensure that RxIntDelay is set to zero.
原帖由 "bingosek" 发表:
bcm用tg3驱动我在linux(rhas 2.1)做nas的环境下用过,负载很重,一天到晚拷贝语音数据,没有什么问题,只是有些报错
原帖由 "platinum" 发表:
负载重不重要看 pps,而不是 bps
原帖由 "bingosek" 发表:
pps如果是在局域网传输来说是无干紧要的,恐怕没有多少服务器上的文件是小于MTU的吧
原帖由 "platinum" 发表:
为什么说 pps 在局域网中无关紧要?
服务器上的文件与 MTU 又有什么关系?
pps如果是在局域网传输来说是无干紧要的,恐怕没有多少服务器上的文件是小于MTU的吧
原帖由 "platinum" 发表:
于文件传输的话,协议设计的时候就尽量都用大包来转发数据,这样才能减小 pps
可否想过,同样的 bps,当每个 packet 的 size 越小的时候,pps 就越大,当 pps 越大的时候,负载就越高
比如,一个提供下载的 WEB 服务器,与一个很简单的静态页面的 WEB 服务器相比,平均 pps 就差好几倍
我的环境与你的不同,不是用来传输文件的,我的网络中平均包大小只有 300 bytes,平均 pps 是你的 4 倍以上
1、局域网传输数据(不是狭义的指“文件传输”)也可以很轻易的使 pps 增高
2、包的大小是看传输数据量的,可以把数据分到 n 个小包中,也可以写入一个大包中,要看编程者的意图
原帖由 "platinum" 发表:
网卡处理每一个 packet 都要占用中断,而百兆网卡,1400 字节以上大包跑满才不过几千
但如果让 64 字节的小包跑到 50M,pps 也要远比上面说的大的多,负载也要大的多
我坚持我的看法,网卡的负载要看 pps,而不?.........
原帖由 platinum 于 2005-10-23 10:57 发表
网卡处理每一个 packet 都要占用中断,而百兆网卡,1400 字节以上大包跑满才不过几千
但如果让 64 字节的小包跑到 50M,pps 也要远比上面说的大的多,负载也要大的多
我坚持我的看法,网卡的负载要看 pps,而 ...
CONFIG_E1000_NAP
NAPI is a new driver API designed to reduce CPU and interrupt load
when the driver is receiving lots of packets from the card. It is
still somewhat experimental and thus not yet enabled by default.
If your estimated Rx load is 10kpps or more, or if the card will be
deployed on potentially unfriendly networks (e.g. in a firewall),
then say Y here.
See Documentation/networking/NAPI_HOWTO.txt for more
information.
If in doubt, say N.
不知道该怎么办了。。。
原帖由 我 于 2005-12-8 09:10 发表
可以提供同样的测试环境(硬件)。e1000
02:02.0 Ethernet controller: Intel Corporation 82545EM Gigabit Ethernet Controller (Copper)
(rev 01)
btw: 可能是楼主的小学同学。
原帖由 wheel 于 2005-12-8 12:41 发表
是用最新的内核和最新的驱动了吗?
原帖由 我 于 2005-12-8 16:28 发表
看楼主是否需要这样的环境测试,我有你的msn。
需要的话跟你联系。
原帖由 wj98127 于 2005-12-9 10:32 发表
我们这也有一台服务器是这种情况.不过出现的情况少.也不知道为什么会出现.我们像这样的的服务器有几百台.只有这台出出问题.驱动应该都系统自带的..比较这台机器负载大的机器也很多.也没有过 这样的问题.因为跑重要 ...
原帖由 yuguanglou 于 2005-12-11 00:28 发表
按照E1000驱动里面,编译驱动模块的时候记得吧 NAPI 参数加上 这样就支持NAPI 可能是这个问题哟
make CFLAGS_EXTRA=-DE1000_NAPI
还有其他的
ACPI enable may cause Dual Port PRO/1000 Adapters to fa ...
原帖由 hongzjx 于 2006-1-5 12:08 发表
楼主的网内不会是有人中了木马等病毒了吧
原帖由 platinum 于 2006-11-27 14:16 发表
原因是负载过大时,e1000 驱动里面的 watchdog 无法获取完整的时间片来“喂狗”,导致网卡驱动断开网络
优化服务器之后问题解决
欢迎光临 Chinaunix (http://bbs.chinaunix.net/) | Powered by Discuz! X3.2 |