spark环境搭建

技术spark环境搭建 spark环境搭建spark环境搭建
spark下载地址:http://archive.apache.org/dist/spark/
Scala下载地址:https://scal

发动环境搭建

spark环境搭建

发动下载地址:http://存档。阿帕奇。组织/区/火花/

斯卡拉下载地址:https://Scala-lang。org/download/2。11 .8 .超文本标记语言

这里的发动版本用的是:spark-2.4.0-bin-hadoop2.6.tgz

这里的斯卡拉用的是:scala-2.11.8.tgz

1. 安装Scala

1.1 上传解压Scala

(1) 上传安装包scala-2.11.8.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf Scala-2。11 .8 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv scala-2.11.8 scala

1.2 设置Scala环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SCALA_HOME=/opt/module/scala

导出路径=$PATH:$SCALA_HOME/bin

使设置立即生效:

源/根/。bash_profile

验证斯卡拉

斯卡拉版本

2. 安装spark

2.1 上传解压spark

(1) 上传安装包spark-2.4.0-bin-hadoop2.6.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf火花-2。4 .0-bin-Hadoop 2。6 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv火花-2。4 .0-bin-Hadoop 2.6火花

2.2 设置spark环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SPARK_HOME=/opt/module/spark

导出路径=$PATH:$SPARK_HOME/bin

导出路径=$PATH:$SPARK_HOME/sbin

使设置立即生效:

源/根/。bash_profile

2.3 修改配置文件

(1)把/opt/module/spark/conf/下的spark-env.sh模板文件修改为火花-环境嘘

[root @ master conf]# mv spark-env。先令模板火花-环境。嘘

(2)修改火花-环境嘘配置文件

命令:

vi spark-env.sh

添加如下内容:

导出JAVA _ HOME=/opt/module/JDK 1。8 .0 _ 281

导出HADOOP _ CONF _ DIR=/opt/module/HADOOP/etc/HADOOP

导出SPARK_MASTER_HOST=master

导出SPARK_MASTER_PORT=7077

导出火花_工人_核心=1

导出SPARK_WORKER_MEMORY=1g

导出SPARK _ DIST _类路径=$(/opt/module/Hadoop/bin/Hadoop类路径)

导出SPARK_MASTER_IP=192.168.1.110

(3) 修改奴隶配置文件,添加工人的主机列表

把/opt/module/spark/conf/下的奴隶。模板文件修改为奴隶

[root@master conf]# mv从机。模板从机

修改奴隶文件

命令:

六奴隶

添加如下内容:

# 里面的内容原来为本地主机,添加自己有的几个节点

掌握

slave01

slave02

(4) 把/opt/模块/spark/sbin下的start-all.sh和停下来这两个文件重命名

[root @ master sbin]# mv start-all。sh开始-火花-所有。嘘

[root @ master sbin]# mv stop-all。停止-火花-所有。嘘

3. 分发到其他节点

(1)把斯卡拉分发给其他节点

slave01节点:

scp-r/opt/module/Scala/root @ slave 01:/opt/module/Scala/

slave02节点:

scp-r/opt/module/Scala/root @ slave 02:/opt/module/Scala/

(2)把发动分发给其他节点

slave01节点:

scp-r/opt/模块/spark/root @ slave 01:/opt/模块/spark/

slave02节点:

scp-r/opt/模块/spark/root @ slave 02:/opt/模块/spark/

(3)把环境变量分发到其他节点

slave01节点:

rsync -av /root/.bash _ profile root @ slave 01:/root/.bash_profile

slave02节点:

rsync -av /root/.bash _ profile root @ slave 02:/root/.bash_profile

4. 启动spark集群

在火花大师节点启动发动集群

[root @ master spark]# sbin/start-spark-all。嘘

掌握节点如图所示:

从属01、从属02节点如图所示:

查看webUI:

在网页上输入网址:http://192.168.1.110:8080/

如图所示:

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/77290.html

(0)

相关推荐

  • Python模块怎么导入

    技术Python模块怎么导入这篇文章主要讲解了“Python模块怎么导入”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Python模块怎么导入”吧!模块的定义:在pyth

    攻略 2021年11月25日
  • 周记一个星期发生的事,周记是写一周发生的事情吗

    技术周记一个星期发生的事,周记是写一周发生的事情吗这一周我过得非常开心周记一个星期发生的事,因为我干了许许多多有趣的事情,还学了很多新知识,掌握了很多新本领。星期三晚上,我们在风雨球场看了一场精彩的英语歌曲大赛。小学部的

    生活 2021年10月24日
  • 什么是php curl

    技术什么是php curl这篇文章主要讲解了“什么是php curl”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“什么是php curl”吧!

    攻略 2021年11月8日
  • 怎么搭建Solr8与ikanalyzer

    技术怎么搭建Solr8与ikanalyzer今天就跟大家聊聊有关怎么搭建Solr8与ikanalyzer,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。服务安装并启

    攻略 2021年10月19日
  • Oracle中exp和imp数据迁移注意事项有哪些

    技术Oracle中exp和imp数据迁移注意事项有哪些这篇文章给大家分享的是有关Oracle中exp和imp数据迁移注意事项有哪些的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一,exp时,o

    攻略 2021年11月13日
  • 如何使用系统SQL实体自动创建非聚集索引

    技术如何使用系统SQL实体自动创建非聚集索引小编给大家分享一下如何使用系统SQL实体自动创建非聚集索引,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一

    攻略 2021年11月23日