千家信息网

centOS7下Spark怎么安装配置

发表于:2025-11-14 作者:千家信息网编辑
千家信息网最后更新 2025年11月14日,本篇内容介绍了"centOS7下Spark怎么安装配置"的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!
千家信息网最后更新 2025年11月14日centOS7下Spark怎么安装配置

本篇内容介绍了"centOS7下Spark怎么安装配置"的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

环境说明:

操作系统: centos7 64位 3台
centos7-1 192.168.190.130 master
centos7-2 192.168.190.129 slave1
centos7-3 192.168.190.131 slave2

安装spark需要同时安装如下内容:

jdk scale

1.安装jdk,配置jdk环境变量

这里不讲如何安装配置jdk,自行百度。

2.安装scala

下载scala安装包,选择符合要求的版本进行下载,使用客户端工具上传到服务器上。解压:

 #tar -zxvf scala-2.13.0-m4.tgz  再次修改/etc/profile文件,添加如下内容:  export scala_home=$work_space/scala-2.13.0-m4  export path=$path:$scala_home/bin  #source /etc/profile   // 让其立即生效  #scala -version      //查看scala是否安装完成

3.安装spark

说明:有不同的版本包下载,选则你需要的下载安装即可

source code: spark 源码,需要编译才能使用,另外 scala 2.11 需要使用源码编译才可使用
pre-build with user-provided hadoop: "hadoop free" 版,可应用到任意 hadoop 版本
pre-build for hadoop 2.7 and later: 基于 hadoop 2.7 的预先编译版,需要与本机安装的 hadoop 版本对应。可选的还有 hadoop 2.6。我这里因为装的hadoop是3.1.0,所以直接安装for hadoop 2.7 and later的版本。

注:hadoop的安装请查看我的上一篇博客,不在重复描述。

centos7下spark安装配置#mkdir spark #cd /usr/spark#tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz#vim /etc/profile#添加spark的环境变量,加如path下、export出来#source /etc/profile#进入conf目录下,把spark-env.sh.template拷贝一份改名spark-env.sh#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf#cp spark-env.sh.template spark-env.sh#vim spark-env.shexport scala_home=/usr/scala/scala-2.13.0-m4export java_home=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.171-8.b10.el7_5.x86_64export hadoop_home=/usr/hadoop/hadoop-3.1.0export hadoop_conf_dir=$hadoop_home/etc/hadoopexport spark_home=/usr/spark/spark-2.3.1-bin-hadoop2.7export spark_master_ip=masterexport spark_executor_memory=1g#进入conf目录下,把slaves.template拷贝一份改名为slaves#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf#cp slaves.template slaves#vim slaves#添加节点域名到slaves文件中#master   //该域名为centos7-1的域名#slave1   //该域名为centos7-2的域名#slave2   //该域名为centos7-3的域名

启动spark

#启动spark之前先要把hadoop节点启动起来#cd /usr/hadoop/hadoop-3.1.0/#sbin/start-all.sh#jps //检查启动的线程是否已经把hadoop启动起来了#cd /usr/spark/spark-2.3.1-bin-hadoop2.7#sbin/start-all.sh备注:在slave1\slave2节点上也必须按照上面的方式安装spark,或者直接拷贝一份到slave1,slave2节点上#scp -r /usr/spark root@slave1ip:/usr/spark

启动信息如下:

starting org.apache.spark.deploy.master.master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.master-1-master.out
slave2: starting org.apache.spark.deploy.worker.worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.worker-1-slave2.com.cn.out
slave1: starting org.apache.spark.deploy.worker.worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.worker-1-slave1.com.cn.out
master: starting org.apache.spark.deploy.worker.worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.worker-1-master.out

测试spark集群:

用浏览器打开master节点上的spark集群


"centOS7下Spark怎么安装配置"的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注网站,小编将为大家输出更多高质量的实用文章!

配置 版本 节点 内容 域名 拷贝 环境 编译 变量 文件 更多 源码 目录 知识 集群 不同 实用 学有所成 接下来 操作系统 数据库的安全要保护哪些东西 数据库安全各自的含义是什么 生产安全数据库录入 数据库的安全性及管理 数据库安全策略包含哪些 海淀数据库安全审计系统 建立农村房屋安全信息数据库 易用的数据库客户端支持安全管理 连接数据库失败ssl安全错误 数据库的锁怎样保障安全 阿里云邮箱的收件服务器 太仓软件开发培训 行尸危机服务器手机版怎么连接 网络安全监督管理岗位 网络安全技术攻防 洛奇英雄传都有哪些服务器 《网络安全不烦恼》观后感 学网络安全要什么条件 如何保护f盘数据库 服装软件开发 美国光动力治疗数据库 计算机网络安全管理设计 云服务器服务外包协议 软件开发工程师的薪资职友集 软件开发在互联网中担当什么角色 学生党如何合理利用阿里云服务器 软件开发间接人力成本 软件开发硬件环境官方完整版 字节跳动有没有软件开发工作 532网络安全宣传周 电信网络安全基础ppt 高中信息数据库操作可否撤销 数据库表与关系模型 锡盟检察分院网络安全 烽火服务器管理口重装系统 rtm网络安全 褚健中控科技工业互联网 怎么查到服务器的网络 普陀区口碑好的软件开发哪家好 应用安全配置服务器
0