忘记密码   免费注册 查看新帖 |

ChinaUnix.net

  平台 论坛 博客 文库 频道自动化运维 虚拟化 储存备份 C/C++ PHP MySQL 嵌入式 Linux系统
最近访问板块 发新帖
查看: 4328 | 回复: 0

[Spark] spark executor 上的task 不均衡问题。 [复制链接]

论坛徽章:
0
发表于 2018-03-07 22:58 |显示全部楼层
请问,我目前碰到问题是 spark executor 上的task任务数量不均衡。 导致,分配了很多executor ,实际干活的就那么几个。
劳烦大伙帮忙分析一下这个问题。

如下图,

企业微信截图_20180307224854.png

分配很了多executor ,但是实际工作的executor主要集中在 p1\p2\p3 这三个机器。 这三个机器恰好是 datanode 节点。 Locality Level 都是 node_local

执行的语句非常简单就是  select count(*) from table .

如果把p1/p2/p3 上的 nodemanger 关掉。task 就分配的均衡了。 Locality Level 都是 Rack_local

我猜测是跟spark 优先读取本地数据有关 。但是,只是猜测,且没有不知道如何调整。

请问各位碰过相似的问题,或是有类似的经验吗?

谢谢。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号 北京市公安局海淀分局网监中心备案编号:11010802020122
广播电视节目制作经营许可证(京) 字第1234号 中国互联网协会会员  联系我们:wangnan@it168.com
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP