免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 45066 | 回复: 0

[Spark] spark executor 上的task 不均衡问题。 [复制链接]

论坛徽章:
0
发表于 2018-03-07 22:58 |显示全部楼层
请问,我目前碰到问题是 spark executor 上的task任务数量不均衡。 导致,分配了很多executor ,实际干活的就那么几个。
劳烦大伙帮忙分析一下这个问题。

如下图,

企业微信截图_20180307224854.png

分配很了多executor ,但是实际工作的executor主要集中在 p1\p2\p3 这三个机器。 这三个机器恰好是 datanode 节点。 Locality Level 都是 node_local

执行的语句非常简单就是  select count(*) from table .

如果把p1/p2/p3 上的 nodemanger 关掉。task 就分配的均衡了。 Locality Level 都是 Rack_local

我猜测是跟spark 优先读取本地数据有关 。但是,只是猜测,且没有不知道如何调整。

请问各位碰过相似的问题,或是有类似的经验吗?

谢谢。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP