royzs 发表于 2017-03-13 17:22

docker里面的spark应用超时错误,找不到超时的参数从哪里修改

http://bbs.chinaunix.net/forum.php?mod=image&aid=700206&size=300x300&key=e78d2387ff2d4cb2&nocache=yes&type=fixnone
http://bbs.chinaunix.net/forum.php?mod=image&aid=700205&size=300x300&key=d7f1bef473d79ad8&nocache=yes&type=fixnone
docker里面的spark运行总提示超时,网上说改一下参数spark.rpc.asktimeout值默认为10改成30或者更大试试看,有个配置文件spark-defaults.conf,但是打开看没有spark.rpc.asktimeout这个参数,求助,十万火急

royzs 发表于 2017-03-13 17:22

在线立等      

royzs 发表于 2017-03-13 17:47

万分感谢!

royzs 发表于 2017-03-13 20:07

难道发错地方了吗,spark,hadoop大数据

royzs 发表于 2017-03-13 20:27

求助求助   

台把灭蒙 发表于 2017-07-17 17:27

【如何才能用4个月学会Hadoop大数据开发?】

我纷享过一套视频,很多刚毕业的人跟着教程,只用4个月就学会了大数据并找到了工作。
但为什么你就做不到呢?因为你没有看过这个教程,错过了学习的机会。
教程是百度核心架构师录制,内容系统全面,包括(0基础入门、Hadoop生态架构、大型商业案例讲解)3大部分。
不要理所当然的认为别人分享的视频没有价值,你不去自己看永远不知道错过了什么。
教程是免费分享,绝对不像某些视频是加密过的,可以直接播放。
教程下载地址发到了朋友圈,可以通过ganshiyu1026这个号找到。
注明:Chinaunix
页: [1]
查看完整版本: docker里面的spark应用超时错误,找不到超时的参数从哪里修改