千家信息网

Hadoop2.6.0上的spark1.5.2集群如何搭建

发表于:2025-12-02 作者:千家信息网编辑
千家信息网最后更新 2025年12月02日,这篇文章将为大家详细讲解有关Hadoop2.6.0上的spark1.5.2集群如何搭建,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。一、Spark安装前提安装Spa
千家信息网最后更新 2025年12月02日Hadoop2.6.0上的spark1.5.2集群如何搭建

这篇文章将为大家详细讲解有关Hadoop2.6.0上的spark1.5.2集群如何搭建,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

一、Spark安装前提

安装Spark之前需要先安装Hadoop集群,因为之前已经安装了hadoop,所以我直接在之前的hadoop集群上安装spark,但是因为机器内存不够,我只选择master以及slave01安装spark集群,而不要slave02了。

二、Spark安装步骤:

1.下载scala-2.11.7.tgz

http://www.scala-lang.org/download/2.11.7.html

2.下载spark-1.5.2-bin-hadoop2.6.tgz(之前安装的hadoop是2.6.0的)

http://www.apache.org/dyn/closer.lua/spark/spark-1.5.2/spark-1.5.2-bin-hadoop2.6.tgz

3.安装Scala(在master上):

mkdir /application/scala

cp /root/scala-2.11.7.tgz /application/scala/

cd /application/scala/

tar -zxvf scala-2.11.7.tgz

创建软链接:

ln -s /application/scala/scala-2.11.7 /application/scala/scala

修改环境变量,添加SCALA_HOME,并修改PATH即可:

vi /etc/profile.d/java.sh

export SCALA_HOME=/application/scala/scala-2.11.7

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$PATH

使配置立即生效:

source /etc/profile

验证是否安装成功

scala -version

显示如下:

4.将/application/scala从master复制到另外一台机器slave01上。

scp -r /application/scala root@slave01:/application/

5.将/etc/profile.d/java.sh 也复制到slave01上。

再在slave01上进行以下命令操作,使配置生效:

source /etc/profile

6.安装Spark(在master上):

mkdir /application/spark

cp /root/spark-1.5.2-bin-hadoop2.6.tgz /application/spark/

tar -zxvf spark-1.5.2-bin-hadoop2.6.tgz

修改环境变量:将SPARK_HOME添加进去,并修改PATH即可。

vi /etc/profile.d/java.sh

export SPARK_HOME=/application/spark/spark-1.5.2-bin-hadoop2.6

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$PATH

是配置立即生效:

source /etc/profile

7.修改配置文件

7.1修改spark-env.sh配置文件:

cd /application/spark/spark-1.5.2-bin-hadoop2.6/conf

cp spark-env.sh.template spark-env.sh

vi spark-env.sh

在后面追加

###jdk direxport  JAVA_HOME=/usr/local/jdk###scala direxport SCALA_HOME=/application/scala/scala###the ip of master node of sparkexport SPARK_MASTER_IP=192.168.10.1###the max memory size of workerexport SPARK_WORKER_MEMORY=512m###hadoop configuration file direxport HADOOP_CONF_DIR=/application/hadoop/hadoop/etc/hadoop



7.2修改slaves文件

cp slaves.template slaves

vi slaves

添加如下(可能有默认localhost,将其改成master):

master

slave01

8.将/application/spark以及环境变量的配置文件复制到slave01,并通过source命令将文件立即生效

scp -r /application/spark root@slave01:/application/

scp -r /etc/profile.d/java.sh root@slave01:/etc/profile.d/java.sh

修改所属组和用户

chown -R hadoop:hadoop /application/spark

9.到此Spark集群搭建完毕。

10.启动Spark集群:

启动Spark之前需要先将hadoop的dfs以及yarn启动。

/application/spark/spark-1.5.2-bin-hadoop2.6/sbin/start-all.sh

启动所有服务之后,在命令行输入jps,显示如下:


比hadoop集群启动时多了Master和worker

输入如下命令

/application/spark/spark-1.5.2-bin-hadoop2.6/bin/spark-shell.sh

出现scala>时说明成功。

在浏览器中输入192.168.10.1:8080时,会看到如下图,有两个Worker


在浏览器中输入192.168.10.1:4040

出现如图:


三、运行实例wordcount实例:

scala>var textcount=sc.textFile("hdfs://master:9000/data/words2").filter(line=>line.contains("haha")).count()

显示结果如下:


关于"Hadoop2.6.0上的spark1.5.2集群如何搭建"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

集群 配置 文件 命令 输入 变量 环境 篇文章 成功 实例 更多 机器 浏览器 浏览 不错 实用 不够 两个 内存 内容 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 北京服务器虚拟化定制 代理服务器怎么下载视频 电力行业网络安全案例工作原理 域控服务器密码怎么改简单 广州通信软件开发维修电话 网络安全设备情况怎么填写 sql备份数据库怎么找回来 西安鸿鹄网络技术 赵 数据库老连接失败什么原因 北京精英网络技术服务项目 jbi数据库账号 广州网龙网络技术有限公司 陕西智慧团建软件开发公司 数据库可视化分析技术 配置注册表数据库损坏 头条数据库技术框架 网站服务器安全教学 数据库备份重点考虑哪些因素 郑州市瑞庭网络技术有限公司 网络安全进校园寓教于乐促成长 网络安全大客户经理职责 赢创网络技术有限公司 ARCMAP连接PG数据库 组态王数据库哪种好 电脑怎么配置支持服务器身份验证 国产数据库应用技术研究 什么是分离数据库 闵行区高科技软件开发使用方法 黑茶网络安全工程师 普陀区软件开发技术咨询优势
0