免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 15757 | 回复: 0

[Spark] spark executor 上的task 不均衡问题。 [复制链接]

论坛徽章:
0
发表于 2018-03-07 22:58 |显示全部楼层
请问,我目前碰到问题是 spark executor 上的task任务数量不均衡。 导致,分配了很多executor ,实际干活的就那么几个。
劳烦大伙帮忙分析一下这个问题。

如下图,

企业微信截图_20180307224854.png

分配很了多executor ,但是实际工作的executor主要集中在 p1\p2\p3 这三个机器。 这三个机器恰好是 datanode 节点。 Locality Level 都是 node_local

执行的语句非常简单就是  select count(*) from table .

如果把p1/p2/p3 上的 nodemanger 关掉。task 就分配的均衡了。 Locality Level 都是 Rack_local

我猜测是跟spark 优先读取本地数据有关 。但是,只是猜测,且没有不知道如何调整。

请问各位碰过相似的问题,或是有类似的经验吗?

谢谢。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

DTCC2020中国数据库技术大会 限时8.5折

【架构革新 高效可控】2020年8月17日~19日第十一届中国数据库技术大会将在北京隆重召开。

大会设置2大主会场,20+技术专场,将邀请超百位行业专家,重点围绕数据架构、AI与大数据、传统企业数据库实践和国产开源数据库等内容展开分享和探讨,为广大数据领域从业人士提供一场年度盛会和交流平台。

http://dtcc.it168.com


大会官网>>
  

北京盛拓优讯信息技术有限公司. 版权所有 16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122
中国互联网协会会员  联系我们:huangweiwei@it168.com
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP