cbys.net
当前位置:首页 >> SpArk ShEll因为SCAlA编译器原因不能正常启动怎么解决 >>

SpArk ShEll因为SCAlA编译器原因不能正常启动怎么解决

有一篇论文吸引了我的注意:Object Scala Found。里面终于找到一个办法: “ However, a working command can be recovered, like so: $ jrunscript -Djava.class.path=scala-library.jar -Dscala.usejavacp=true -classpath scala-compiler.jar ...

你好, 错误原因,与libgcj.so.10有关,可能是Java环境没有配置正确,在conf/spark-env.sh中添加一行:export JAVA_HOME=/usr/java/latest解决问题!

exit; 或者quit; 再不行,ctrl+C.

错误原因,与libgcj.so.10有关,可能是Java环境没有配置正确,在conf/spark-env.sh中添加一行:export JAVA_HOME=/usr/java/latest解决问题!

靠 总算搞定了,跟题主一模一样的异常信息 首先肯定是版本问题,编译版本问题。如楼上所说sbt配置spark-core的版本应该有问题。 贴我的配置 注意各个依赖配置区别,%%和%的区别,%%会带scala版本信息,spark-core也就会变成spark-core_2.10,因...

参考http://spark.apache.org/docs/latest/quick-start.html # Use spark-submit to run your application$ YOUR_SPARK_HOME/bin/spark-submit \ --class "SimpleApp" \ --master local[4] \ target/scala-2.10/simple-project_2.10-1.0.jar...

:quit PS:(:help可以查看相关命令)

主要是jre目录下缺少了libhadoop.so和libsnappy.so两个文件。具体是,spark-shell依赖的是scala,scala依赖的是JAVA_HOME下的jdk,libhadoop.so和libsnappy.so两个文件应该放到$JAVA_HOME/jre/lib/amd64下面。 这两个so:libhadoop.so和libsnapp...

# Use spark-submit to run your application $ YOUR_SPARK_HOME/bin/spark-submit \ --class "SimpleApp" \ --master local[4] \ target/scala-2.10/simple-project_2.10-1.0.jar ...

试试在spark-env.sh中设置: export SPARK_MASTER_IP=127.0.0.1 export SPARK_LOCAL_IP=127.0.0.1

网站首页 | 网站地图
All rights reserved Powered by www.cbys.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com