忘记密码   免费注册 查看新帖 |

ChinaUnix.net

  平台 论坛 博客 文库 频道自动化运维 虚拟化 储存备份 C/C++ PHP MySQL 嵌入式 Linux系统
最近访问板块 发新帖
查看: 4277 | 回复: 2

[Spark] 在maven项目中添加了spark-core依赖以后提示错误: 找不到或无法加载主类 [复制链接]

论坛徽章:
0
发表于 2017-11-06 09:00 |显示全部楼层
我在idea建的maven项目
  1. public class App {
  2.     public static void main(String[] args){
  3.         System.out.println("asfasd");
  4.     }
  5. }
复制代码
打包成jar运行没有问题
但当我添加了spark-core依赖以后在java -jar javaspark.jar以后就提示错误
错误: 找不到或无法加载主类 App
  1. <dependency>
  2.         <groupId>org.apache.spark</groupId>
  3.         <artifactId>spark-core_2.11</artifactId>
  4.         <version>2.2.0</version>
  5.     </dependency>
复制代码
我用spark-submit 的方法提交,也提示相同的错误

论坛徽章:
0
发表于 2017-11-07 15:13 |显示全部楼层
本帖最后由 ighack 于 2017-11-07 15:29 编辑

spark的程序打包成jar以后。要把什么spark,hadoop,scala的依赖删除掉在打包
不然会 报找不到或无法加载主类,打包成JAR以后只能在linux的spark集群中运行。本地不能运行
如果要提交到yarn-cluster中的话,不要设置setMaster("local"),在spark-submit --master spark://tester:7077可以有setMaster("local"),这样.foreach(println)才会显示到终端
在IDEA里运行时可以用setMaster("local")

论坛徽章:
15
2015七夕节徽章
日期:2015-08-21 11:06:172017金鸡报晓
日期:2017-01-10 15:19:56极客徽章
日期:2016-12-07 14:07:30shanzhi
日期:2016-06-17 17:59:3115-16赛季CBA联赛之四川
日期:2016-04-13 14:36:562016猴年福章徽章
日期:2016-02-18 15:30:34IT运维版块每日发帖之星
日期:2016-01-28 06:20:0015-16赛季CBA联赛之新疆
日期:2016-01-25 14:01:34IT运维版块每周发帖之星
日期:2016-01-07 23:04:26数据库技术版块每日发帖之星
日期:2016-01-03 06:20:00数据库技术版块每日发帖之星
日期:2015-12-01 06:20:00IT运维版块每日发帖之星
日期:2015-11-10 06:20:00
发表于 2017-11-29 13:03 |显示全部楼层
spark项目要用spark-submit提交,不能用java -jar允许
您需要登录后才可以回帖 登录 | 注册

本版积分规则

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号 北京市公安局海淀分局网监中心备案编号:11010802020122
广播电视节目制作经营许可证(京) 字第1234号 中国互联网协会会员  联系我们:wangnan@it168.com
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP