spark环境搭建

技术spark环境搭建 spark环境搭建spark环境搭建
spark下载地址:http://archive.apache.org/dist/spark/
Scala下载地址:https://scal

发动环境搭建

spark环境搭建

发动下载地址:http://存档。阿帕奇。组织/区/火花/

斯卡拉下载地址:https://Scala-lang。org/download/2。11 .8 .超文本标记语言

这里的发动版本用的是:spark-2.4.0-bin-hadoop2.6.tgz

这里的斯卡拉用的是:scala-2.11.8.tgz

1. 安装Scala

1.1 上传解压Scala

(1) 上传安装包scala-2.11.8.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf Scala-2。11 .8 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv scala-2.11.8 scala

1.2 设置Scala环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SCALA_HOME=/opt/module/scala

导出路径=$PATH:$SCALA_HOME/bin

使设置立即生效:

源/根/。bash_profile

验证斯卡拉

斯卡拉版本

2. 安装spark

2.1 上传解压spark

(1) 上传安装包spark-2.4.0-bin-hadoop2.6.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf火花-2。4 .0-bin-Hadoop 2。6 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv火花-2。4 .0-bin-Hadoop 2.6火花

2.2 设置spark环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SPARK_HOME=/opt/module/spark

导出路径=$PATH:$SPARK_HOME/bin

导出路径=$PATH:$SPARK_HOME/sbin

使设置立即生效:

源/根/。bash_profile

2.3 修改配置文件

(1)把/opt/module/spark/conf/下的spark-env.sh模板文件修改为火花-环境嘘

[root @ master conf]# mv spark-env。先令模板火花-环境。嘘

(2)修改火花-环境嘘配置文件

命令:

vi spark-env.sh

添加如下内容:

导出JAVA _ HOME=/opt/module/JDK 1。8 .0 _ 281

导出HADOOP _ CONF _ DIR=/opt/module/HADOOP/etc/HADOOP

导出SPARK_MASTER_HOST=master

导出SPARK_MASTER_PORT=7077

导出火花_工人_核心=1

导出SPARK_WORKER_MEMORY=1g

导出SPARK _ DIST _类路径=$(/opt/module/Hadoop/bin/Hadoop类路径)

导出SPARK_MASTER_IP=192.168.1.110

(3) 修改奴隶配置文件,添加工人的主机列表

把/opt/module/spark/conf/下的奴隶。模板文件修改为奴隶

[root@master conf]# mv从机。模板从机

修改奴隶文件

命令:

六奴隶

添加如下内容:

# 里面的内容原来为本地主机,添加自己有的几个节点

掌握

slave01

slave02

(4) 把/opt/模块/spark/sbin下的start-all.sh和停下来这两个文件重命名

[root @ master sbin]# mv start-all。sh开始-火花-所有。嘘

[root @ master sbin]# mv stop-all。停止-火花-所有。嘘

3. 分发到其他节点

(1)把斯卡拉分发给其他节点

slave01节点:

scp-r/opt/module/Scala/root @ slave 01:/opt/module/Scala/

slave02节点:

scp-r/opt/module/Scala/root @ slave 02:/opt/module/Scala/

(2)把发动分发给其他节点

slave01节点:

scp-r/opt/模块/spark/root @ slave 01:/opt/模块/spark/

slave02节点:

scp-r/opt/模块/spark/root @ slave 02:/opt/模块/spark/

(3)把环境变量分发到其他节点

slave01节点:

rsync -av /root/.bash _ profile root @ slave 01:/root/.bash_profile

slave02节点:

rsync -av /root/.bash _ profile root @ slave 02:/root/.bash_profile

4. 启动spark集群

在火花大师节点启动发动集群

[root @ master spark]# sbin/start-spark-all。嘘

掌握节点如图所示:

从属01、从属02节点如图所示:

查看webUI:

在网页上输入网址:http://192.168.1.110:8080/

如图所示:

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/77290.html

(0)

相关推荐

  • html5璁剧疆椤甸潰瀹藉害(html5中元素能不能拉伸宽度)

    技术html5中元素能不能拉伸宽度这篇文章给大家分享的是有关html5中元素能不能拉伸宽度的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。 html中元素能拉伸宽度,

    攻略 2021年12月25日
  • 如何分析Linux环境变量和进程地址空间

    技术如何分析Linux环境变量和进程地址空间如何分析Linux环境变量和进程地址空间,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。Linux环境变量和进程地

    攻略 2021年12月11日
  • 怎样做酸菜鱼家常做法,酸菜鱼的家庭简单做法有哪些

    技术怎样做酸菜鱼家常做法,酸菜鱼的家庭简单做法有哪些家庭简单酸菜鱼做法 材料 黑鱼怎样做酸菜鱼家常做法,酸菜,泡辣椒,葱,蒜,干红辣椒,姜,花椒,生粉,鸡汤,料酒,盐,糖,生姜粉
    做法
    1、 鱼切成薄片,
    2、 加

    生活 2021年11月1日
  • eclipse怎样配置mybatis(eclipsemybatis插件推荐)

    技术Eclipse的插件MyBatis Editor有什么用这篇文章将为大家详细讲解有关Eclipse的插件MyBatis Editor有什么用,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所

    攻略 2021年12月15日
  • Redis如何删除1.2亿指定前缀的key

    技术Redis如何删除1.2亿指定前缀的key这篇文章主要为大家展示了“Redis如何删除1.2亿指定前缀的key”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Redis如何

    攻略 2021年12月1日
  • 如何使用Python进行社交媒体情感分析

    技术如何使用Python进行社交媒体情感分析这篇文章给大家介绍如何使用Python进行社交媒体情感分析,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。学习自然语言处理的基础知识并探索两个有用的 Pyt

    攻略 2021年10月26日