spark环境搭建

技术spark环境搭建 spark环境搭建spark环境搭建
spark下载地址:http://archive.apache.org/dist/spark/
Scala下载地址:https://scal

发动环境搭建

spark环境搭建

发动下载地址:http://存档。阿帕奇。组织/区/火花/

斯卡拉下载地址:https://Scala-lang。org/download/2。11 .8 .超文本标记语言

这里的发动版本用的是:spark-2.4.0-bin-hadoop2.6.tgz

这里的斯卡拉用的是:scala-2.11.8.tgz

1. 安装Scala

1.1 上传解压Scala

(1) 上传安装包scala-2.11.8.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf Scala-2。11 .8 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv scala-2.11.8 scala

1.2 设置Scala环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SCALA_HOME=/opt/module/scala

导出路径=$PATH:$SCALA_HOME/bin

使设置立即生效:

源/根/。bash_profile

验证斯卡拉

斯卡拉版本

2. 安装spark

2.1 上传解压spark

(1) 上传安装包spark-2.4.0-bin-hadoop2.6.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf火花-2。4 .0-bin-Hadoop 2。6 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv火花-2。4 .0-bin-Hadoop 2.6火花

2.2 设置spark环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SPARK_HOME=/opt/module/spark

导出路径=$PATH:$SPARK_HOME/bin

导出路径=$PATH:$SPARK_HOME/sbin

使设置立即生效:

源/根/。bash_profile

2.3 修改配置文件

(1)把/opt/module/spark/conf/下的spark-env.sh模板文件修改为火花-环境嘘

[root @ master conf]# mv spark-env。先令模板火花-环境。嘘

(2)修改火花-环境嘘配置文件

命令:

vi spark-env.sh

添加如下内容:

导出JAVA _ HOME=/opt/module/JDK 1。8 .0 _ 281

导出HADOOP _ CONF _ DIR=/opt/module/HADOOP/etc/HADOOP

导出SPARK_MASTER_HOST=master

导出SPARK_MASTER_PORT=7077

导出火花_工人_核心=1

导出SPARK_WORKER_MEMORY=1g

导出SPARK _ DIST _类路径=$(/opt/module/Hadoop/bin/Hadoop类路径)

导出SPARK_MASTER_IP=192.168.1.110

(3) 修改奴隶配置文件,添加工人的主机列表

把/opt/module/spark/conf/下的奴隶。模板文件修改为奴隶

[root@master conf]# mv从机。模板从机

修改奴隶文件

命令:

六奴隶

添加如下内容:

# 里面的内容原来为本地主机,添加自己有的几个节点

掌握

slave01

slave02

(4) 把/opt/模块/spark/sbin下的start-all.sh和停下来这两个文件重命名

[root @ master sbin]# mv start-all。sh开始-火花-所有。嘘

[root @ master sbin]# mv stop-all。停止-火花-所有。嘘

3. 分发到其他节点

(1)把斯卡拉分发给其他节点

slave01节点:

scp-r/opt/module/Scala/root @ slave 01:/opt/module/Scala/

slave02节点:

scp-r/opt/module/Scala/root @ slave 02:/opt/module/Scala/

(2)把发动分发给其他节点

slave01节点:

scp-r/opt/模块/spark/root @ slave 01:/opt/模块/spark/

slave02节点:

scp-r/opt/模块/spark/root @ slave 02:/opt/模块/spark/

(3)把环境变量分发到其他节点

slave01节点:

rsync -av /root/.bash _ profile root @ slave 01:/root/.bash_profile

slave02节点:

rsync -av /root/.bash _ profile root @ slave 02:/root/.bash_profile

4. 启动spark集群

在火花大师节点启动发动集群

[root @ master spark]# sbin/start-spark-all。嘘

掌握节点如图所示:

从属01、从属02节点如图所示:

查看webUI:

在网页上输入网址:http://192.168.1.110:8080/

如图所示:

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/77290.html

(0)

相关推荐

  • 双指针

    技术双指针 双指针双指针799. 最长连续不重复子序列
    给定一个长度为 \(n\) 的整数序列,请找出最长的不包含重复的数的连续区间,输出它的长度。
    输入格式
    第一行包含整数 \(n\)。
    第二行包含

    礼包 2021年11月15日
  • 抖音刷赞,免费刷抖音赞不要钱?

    技术抖音刷赞,免费刷抖音赞不要钱?相信大家都喜欢刷抖音、看抖音的习惯,仿佛都中了抖音的毒,戒也戒不掉,一天不看抖音总觉得少了什么,可是大家又知不知道,看抖音到底有哪些危害呢?今天小编就来给大家讲一讲,希望能给大家提个醒。

    测评 2021年11月10日
  • 如何解决红杉离线备份的相关问题

    技术Sequoiadb backupOffline相关问题怎么解决这篇文章主要介绍“Sequoiadb backupOffline相关问题怎么解决”,在日常操作中,相信很多人在Sequoiadb backupOfflin

    攻略 2021年12月22日
  • 如何理解Process 执行命令行封装类

    技术如何理解Process 执行命令行封装类今天就跟大家聊聊有关如何理解Process 执行命令行封装类,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。进行多次测试

    攻略 2021年11月12日
  • vue3组件通信(vue3子组件之间如何通信)

    技术vue3组件通信的几种方式分别是这样的vue3组件通信的几种方式分别是这样的,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。vue3组件通信方式为以下几种

    攻略 2021年12月14日
  • 怎么解决数据库中的bash: warning: setlocale问题

    技术怎么解决数据库中的bash: warning: setlocale问题这篇文章主要讲解了“怎么解决数据库中的bash: warning: setlocale问题”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟

    攻略 2021年11月16日