当前位置:  开发笔记 > 编程语言 > 正文

Spark 2.0套装罐子

如何解决《Spark2.0套装罐子》经验,为你挑选了1个好方法。

我在play-scala应用程序中从1.6升级到spark 2.0,我不太确定如何设置我想要的jar文件.以前会定义一个SparkConf,我可以调用的方法之一是setJars,它允许我指定我想要的所有jar文件.现在我使用SparkSession构建器构建我的spark conf和spark上下文,我没有看到任何类似的方法来指定jar文件?我怎样才能做到这一点?

以下是我之前创建sparkconf的方法:

val sparkConf = new SparkConf().setMaster(sparkMaster).setAppName(sparkAppName).
  set("spark.yarn.jar", "hdfs:///user/hadoop/spark-assembly-1.6.1-hadoop2.7.2.jar").
  set("spark.eventLog.dir", "hdfs:///var/log/spark/apps").
  set("spark.eventLog.enabled", "true").
  set("spark.executorEnv.JAVA_HOME", "/usr/lib/jvm/jre-1.8.0-openjdk").
  setJars(Seq(
    "ALL JAR FILES LISTED HERE"
  ))

使用sparksession构建器完成与"setJars"相同的操作我能做些什么?



1> Tzach Zohar..:

您可以使用.config(key, value)方法设置spark.jars:

SparkSession.builder
 .appName(sparkAppName)
 .master(sparkMaster)
 .config("spark.jars", commaSeparatedListOfJars)
 .config(/* other stuff */)
 .getOrCreate()

推荐阅读
mobiledu2402851323
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有