irpas技术客

spark的安装详细步骤_喵Ja_spark安装

irpas 6399

1.下载spark地址 http://spark.apache.org/downloads.html 2.把下载好的压缩包拖拽到虚拟机的software(自己建的)目录下 3.进入到software目录里面把压缩包解压到 /opt 目录下

cd /software tar -zxvf spark-2.4.5-bin-hadoop2.6.tgz -C /opt/

4.进入opt目录里面将安装好的spark改名

cd /opt mv spark-2.4.5-bin-hadoop2.6 spark245

5.目录切换到/opt/spark245/conf 文件夹下面:cd /opt/spark245/conf

6.复制spark-env.sh.template 改名为spark-env.sh 到conf目录下:cp spark-env.sh.template spark-env.sh 7.编辑spark-env.sh 文件 添加一下内容

export JAVA_HOME=/opt/jdk1.8.0_221 export SCALA_HOME=/opt/scala211 export SPARK_HOME=/opt/spark245 export SPARK_MASTER_IP=hadoop export SPARK_EXECUTOR_MEMORY=1G

SPARK_DRIVER_MEMORY 该参数设置的是DRIVER分配的内存的大小。也就是执行start-thriftserver.sh机器上分配给thriftserver的内存大小。 如果不是单机的需要配置下slaves.template

8.配置环境变量

export SPARK_HOME=/opt/spark245 export PATH=$PATH:$SPARK_HOME/bin

9.source /etc/profile 10.输入:spark-shell


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。

标签: #spark安装 #opt #目录下cd #softwaretar #zxvf #C