spark环境搭建

技术spark环境搭建 spark环境搭建spark环境搭建
spark下载地址:http://archive.apache.org/dist/spark/
Scala下载地址:https://scal

发动环境搭建

spark环境搭建

发动下载地址:http://存档。阿帕奇。组织/区/火花/

斯卡拉下载地址:https://Scala-lang。org/download/2。11 .8 .超文本标记语言

这里的发动版本用的是:spark-2.4.0-bin-hadoop2.6.tgz

这里的斯卡拉用的是:scala-2.11.8.tgz

1. 安装Scala

1.1 上传解压Scala

(1) 上传安装包scala-2.11.8.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf Scala-2。11 .8 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv scala-2.11.8 scala

1.2 设置Scala环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SCALA_HOME=/opt/module/scala

导出路径=$PATH:$SCALA_HOME/bin

使设置立即生效:

源/根/。bash_profile

验证斯卡拉

斯卡拉版本

2. 安装spark

2.1 上传解压spark

(1) 上传安装包spark-2.4.0-bin-hadoop2.6.tgz到虚拟机中

(2) 进入上传的安装包目录,解压sqoop安装包到指定目录,如:

tar-zxvf火花-2。4 .0-bin-Hadoop 2。6 .tgz-C/opt/模块/

解压后,进入解压后的目录把名字修改为sqoop

mv火花-2。4 .0-bin-Hadoop 2.6火花

2.2 设置spark环境变量

命令:

vi /root/bash_profile

加入下面内容:

导出SPARK_HOME=/opt/module/spark

导出路径=$PATH:$SPARK_HOME/bin

导出路径=$PATH:$SPARK_HOME/sbin

使设置立即生效:

源/根/。bash_profile

2.3 修改配置文件

(1)把/opt/module/spark/conf/下的spark-env.sh模板文件修改为火花-环境嘘

[root @ master conf]# mv spark-env。先令模板火花-环境。嘘

(2)修改火花-环境嘘配置文件

命令:

vi spark-env.sh

添加如下内容:

导出JAVA _ HOME=/opt/module/JDK 1。8 .0 _ 281

导出HADOOP _ CONF _ DIR=/opt/module/HADOOP/etc/HADOOP

导出SPARK_MASTER_HOST=master

导出SPARK_MASTER_PORT=7077

导出火花_工人_核心=1

导出SPARK_WORKER_MEMORY=1g

导出SPARK _ DIST _类路径=$(/opt/module/Hadoop/bin/Hadoop类路径)

导出SPARK_MASTER_IP=192.168.1.110

(3) 修改奴隶配置文件,添加工人的主机列表

把/opt/module/spark/conf/下的奴隶。模板文件修改为奴隶

[root@master conf]# mv从机。模板从机

修改奴隶文件

命令:

六奴隶

添加如下内容:

# 里面的内容原来为本地主机,添加自己有的几个节点

掌握

slave01

slave02

(4) 把/opt/模块/spark/sbin下的start-all.sh和停下来这两个文件重命名

[root @ master sbin]# mv start-all。sh开始-火花-所有。嘘

[root @ master sbin]# mv stop-all。停止-火花-所有。嘘

3. 分发到其他节点

(1)把斯卡拉分发给其他节点

slave01节点:

scp-r/opt/module/Scala/root @ slave 01:/opt/module/Scala/

slave02节点:

scp-r/opt/module/Scala/root @ slave 02:/opt/module/Scala/

(2)把发动分发给其他节点

slave01节点:

scp-r/opt/模块/spark/root @ slave 01:/opt/模块/spark/

slave02节点:

scp-r/opt/模块/spark/root @ slave 02:/opt/模块/spark/

(3)把环境变量分发到其他节点

slave01节点:

rsync -av /root/.bash _ profile root @ slave 01:/root/.bash_profile

slave02节点:

rsync -av /root/.bash _ profile root @ slave 02:/root/.bash_profile

4. 启动spark集群

在火花大师节点启动发动集群

[root @ master spark]# sbin/start-spark-all。嘘

掌握节点如图所示:

从属01、从属02节点如图所示:

查看webUI:

在网页上输入网址:http://192.168.1.110:8080/

如图所示:

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/77290.html

(0)

相关推荐

  • 也是英文,以后也是用英语怎么说英语渣渣

    技术也是英文,以后也是用英语怎么说英语渣渣以后也是 翻译成英文也是英文,有以下几种表达方式: 1、Later will also be! 双语例句: In this sense, not only the Xinjian

    生活 2021年10月25日
  • Comp20211218

    技术Comp20211218 Comp20211218import com.sun.tools.javac.util.Assert;import com.sun.tools.javac.util.Pai

    礼包 2021年12月18日
  • androidmonkey测试工具的完善思路(androidmonkey教程)

    技术Android中的monkey实战是怎样的这篇文章将为大家详细讲解有关Android中的monkey实战是怎样的,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。环境介绍

    攻略 2021年12月24日
  • 什么是php析构

    技术什么是php析构这篇文章主要讲解了“什么是php析构”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“什么是php析构”吧! php析构指的是

    攻略 2021年10月28日
  • 什么是Linux内核空间与用户空间

    技术什么是Linux内核空间与用户空间今天就跟大家聊聊有关什么是Linux内核空间与用户空间,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。本文以 32 位系统为例

    攻略 2021年10月22日
  • 大数据总线平台DBus设计思路与工作原理

    技术大数据总线平台DBus设计思路与工作原理大数据总线平台DBus设计思路与工作原理,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。一、背景企

    攻略 2021年12月3日