当前位置:  开发笔记 > 运维 > 正文

Apache Spark使用自制程序从1.5.2升级到1.6.0,导致执行期间拒绝权限错误

如何解决《ApacheSpark使用自制程序从1.5.2升级到1.6.0,导致执行期间拒绝权限错误》经验,为你挑选了1个好方法。

我刚刚使用Homebrew将Spark从1.5.2升级到1.6.0并将我的SPARK_HOME环境变量重置为/usr/local/Cellar/apache-spark/1.6.0.现在,在执行pyspark时,它会给出一个权限被拒绝的错误.

如果我进入早期的1.5.2安装目录并从那里执行pyspark,它运行正常.但是从1.6.0安装目录运行pyspark失败,并显示此权限被拒绝错误.

/usr/local/Cellar/apache-spark/1.6.0/bin/load-spark-env.sh: line 2: /usr/local/Cellar/apache-spark/1.6.0/libexec/bin/load-spark-env.sh: Permission denied

/usr/local/Cellar/apache-spark/1.6.0/bin/load-spark-env.sh: line 2: exec: /usr/local/Cellar/apache-spark/1.6.0/libexec/bin/load-spark-env.sh: cannot execute: Undefined error: 0

可能是什么导致了这个?



1> mortada..:

我遇到了同样的问题,最容易解决的问题是设置$SPARK_HOME/usr/local/Cellar/apache-spark//libexec/.

您也可以直接从源代码构建,您可以在此处找到说明.

基本上就是这样

git clone https://github.com/apache/spark/`
cd spark
git checkout origin/branch-X.Y

build/mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -DskipTests clean package

您需要$SPARK_HOME将spark源代码设置为顶级目录.

推荐阅读
N个小灰流_701
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有