168大数据

标题: 安装spark,start-all.sh时提示You need to build Spark before running [打印本页]

作者: Wang100gui    时间: 2015-8-22 10:47
标题: 安装spark,start-all.sh时提示You need to build Spark before running
我的scala版本是2.11.7
我的spark版本是1.0.2
我的hadoop版本是2.2.0
jdk版本是1.6.0_41
hadoop、mapreduce都能运行。
/etc/profile配置没什么问题。
spark的spark-env.sh配置如下
export JAVA_HOME=/usr/java/jdk1.6.0_41
export SCALA_HOME=/home/Hadoop/scala/scala-2.11.7
export HADOOP_CONF_DIR=/home/Hadoop/hadoop-2.2.0/etc/hadoop
export SPARK_MASTER_IP=master
export SPARK_MASTER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=300m
————
slaves文件中配置如下
master
node1
node2
——————————————
start-all.sh就会有如下图提示。






欢迎光临 168大数据 (http://www.bi168.cn/) Powered by Discuz! X3.2