免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1307 | 回复: 1
打印 上一主题 下一主题

[网络子系统] dev_queue_xmit 失败的避免和处理方法(求助) [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2015-07-22 14:53 |显示全部楼层 |倒序浏览
大家好:
我最近用两张10GE-NIC(Intel 82599ES)通过光纤把两台PC直连起来,注册了一个L2协议来建立两台PC的沟通,
call dev_queue_xmit发送packet, 发现当发送端如果非常频繁的call dev_queue_xmit时,会出现 return=1的
case, 而且用ifconfig去查看网卡的一些统计值时, 的确也能发现NIC的TX dropp的统计值在增加,我查了下Kernel。
#define NET_XMIT_DROP 1, 貌似说网卡的tx queue 满了, skb_enqueue 失败,不知道理解的对不对
1)我怎么能get到网卡的tx queue是否满
2)或者call dev_queue_xmit这个函数之前,有没有其他的condition以供参考好让我决定是马上发送 or delay发送

anyway, 我想避免出现dev_queue_xmit=1的case

Thanks

论坛徽章:
0
2 [报告]
发表于 2015-07-23 10:14 |显示全部楼层
谢谢你
我追踪代码的执行,发现dev-queue_xmit  return 1 的确是queue满了exceed tx_queue_len所以没法enqueue
static int pfifo_fast_enqueue(struct sk_buff *skb, struct Qdisc* qdisc)
{
if (skb_queue_len(qdisc->q) < qdisc->dev->tx_queue_len) {
  qdisc->q.qlen++;
  return __qdisc_enqueue_tail(skb, qdisc, list);
}

return qdisc_drop(skb, qdisc);     // return 1
}

感觉PC的能力应该不至于让万兆网卡发不过来?CPU更可能先成为瓶颈?
你的意思是CPU enqueue的速度 < 网卡dequeue的速度? 我一直call dev_queue_xmit应该没关系?
按照这个逻辑, 正常情况下 Qsic queue 应该永远不会full啊,除非发生如你所说的这个逻辑链条:
网卡队列full -> netif_stop_queue关闭Qdisc,Qdisc队列只进不->Qdisc队列长度增加,直至Qdisc队列full
所以这里逻辑的起点网卡队列FULL 和 逻辑的终点Qdisc队列FULL有什么区别吗,我一直网卡队列就是Qdisc队列啊

因为我是多线程发送,在call dev_queue_xmit时加了个mutex,现在倒也不会出现这种情况了
regard
回复 2# nswcfd


   
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP