1.下载spark地址 http://spark.apache.org/downloads.html 2.把下载好的压缩包拖拽到虚拟机的software(自己建的)目录下 3.进入到software目录里面把压缩包解压到 /opt 目录下
cd /software tar -zxvf spark-2.4.5-bin-hadoop2.6.tgz -C /opt/4.进入opt目录里面将安装好的spark改名
cd /opt mv spark-2.4.5-bin-hadoop2.6 spark2455.目录切换到/opt/spark245/conf 文件夹下面:cd /opt/spark245/conf
6.复制spark-env.sh.template 改名为spark-env.sh 到conf目录下:cp spark-env.sh.template spark-env.sh 7.编辑spark-env.sh 文件 添加一下内容
export JAVA_HOME=/opt/jdk1.8.0_221 export SCALA_HOME=/opt/scala211 export SPARK_HOME=/opt/spark245 export SPARK_MASTER_IP=hadoop export SPARK_EXECUTOR_MEMORY=1GSPARK_DRIVER_MEMORY 该参数设置的是DRIVER分配的内存的大小。也就是执行start-thriftserver.sh机器上分配给thriftserver的内存大小。 如果不是单机的需要配置下slaves.template
8.配置环境变量
export SPARK_HOME=/opt/spark245 export PATH=$PATH:$SPARK_HOME/bin9.source /etc/profile 10.输入:spark-shell
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。 |