免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 11358 | 回复: 0

[Spark] spark executor 上的task 不均衡问题。 [复制链接]

论坛徽章:
0
发表于 2018-03-07 22:58 |显示全部楼层
请问,我目前碰到问题是 spark executor 上的task任务数量不均衡。 导致,分配了很多executor ,实际干活的就那么几个。
劳烦大伙帮忙分析一下这个问题。

如下图,

企业微信截图_20180307224854.png

分配很了多executor ,但是实际工作的executor主要集中在 p1\p2\p3 这三个机器。 这三个机器恰好是 datanode 节点。 Locality Level 都是 node_local

执行的语句非常简单就是  select count(*) from table .

如果把p1/p2/p3 上的 nodemanger 关掉。task 就分配的均衡了。 Locality Level 都是 Rack_local

我猜测是跟spark 优先读取本地数据有关 。但是,只是猜测,且没有不知道如何调整。

请问各位碰过相似的问题,或是有类似的经验吗?

谢谢。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

SACC2019中国系统架构师大会

【数字转型 架构演进】SACC2019中国系统架构师大会,7折限时优惠重磅来袭!
2019年10月31日~11月2日第11届中国系统架构师大会(SACC2019)将在北京隆重召开。四大主线并行的演讲模式,1个主会场、20个技术专场、超千人参与的会议规模,100+来自互联网、金融、制造业、电商等领域的嘉宾阵容,将为广大参会者提供一场最具价值的技术交流盛会。

限时七折期:2019年8月31日前


----------------------------------------

大会官网>>
  

北京盛拓优讯信息技术有限公司. 版权所有 16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122
中国互联网协会会员  联系我们:huangweiwei@it168.com
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP