Spark1.6.1和Hadoop2.6.4完全分布式安装的示例分析
发表于:2025-12-03 作者:千家信息网编辑
千家信息网最后更新 2025年12月03日,这篇文章主要介绍Spark1.6.1和Hadoop2.6.4完全分布式安装的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!前期准备: 以下安装包均可在官网下载hadoo
千家信息网最后更新 2025年12月03日Spark1.6.1和Hadoop2.6.4完全分布式安装的示例分析
这篇文章主要介绍Spark1.6.1和Hadoop2.6.4完全分布式安装的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
前期准备: 以下安装包均可在官网下载
hadoop-2.6.4.tar.gz jdk-7u71-linux-x64.tar.gz scala-2.10.4.tgz spark-1.6.1-bin-hadoop2.6.tgz
本人的硬件环境为:
master:虚拟内核8 内存16.0GB slave1:虚拟内核4 内存10.0GB slave2:虚拟内核4 内存10.0GB slave3:虚拟内核4 内存10.0GB slave4:虚拟内核4 内存10.0GB
将5台机器分别命名为master、slave1、slave2、slave3、slave4:
在master这台电脑上sudo vim /etc/hostnamemaster
在将5台机器均配置相同hosts:
sudo vim /etc/hosts127.0.0.1 localhost127.0.1.1 master/slave1/...192.168.80.70 master192.168.80.71 slave1 192.168.80.72 slave2 192.168.80.73 slave3 192.168.80.74 slave4
配置好后,重启,之后可以在master上ping slave1
配置ssh:
所有节点,使用 ssh-keygen -t rsa 一路按回车就行了。①在master上将公钥放到authorized_keys里。命令:sudo cat id_rsa.pub >> authorized_keys②将master上的authorized_keys放到其他linux的~/.ssh目录下。命令:scp authorized_keys root@salve1:~/.ssh ③修改authorized_keys权限,命令:chmod 644 authorized_keysssh localhost以及ssh master④测试是否成功ssh slave1 输入用户名密码,然后退出,再次ssh host2不用密码,直接进入系统。这就表示成功了。所有节点关闭防火墙 ufw disable
编辑配置文件:
vim /etc/profileexport JAVA_HOME=/usr/lib/jvm/jdk1.7.0_71export PATH=JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATHexport CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport SCALA_HOME=/opt/scala/scala-2.10.4export PATH=/opt/scala/scala-2.10.4/bin:$PATHexport PATH=$PATH:$JAVA_HOME/binexport HADOOP_HOME=/root/hadoop-2.6.4export HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport HADOOP_MAPRED_HOME=$HADOOP_HOMEexport HADOOP_YARN_HOME=$HADOOP_HOMEexport HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopexport PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOOME/sbin:$HADOOP_HOME/libexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport SPARK_HOME=/root/spark-1.6.1-bin-hadoop2.6export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbinsource /etc/profile
vim hadoop-env.shexport JAVA_HOME=/usr/lib/jvm/jdk1.7.0_71export HADOOP_CONF_DIR=/root/hadoop-2.6.4/etc/hadoop/ source hadoop-env.sh
vim yarn-env.shexport JAVA_HOME=/usr/lib/jvm/jdk1.7.0_71source yarn-env.sh
vim spark-env.shexport SPARK_MASTER_IP=masterexport SPARK_MASTER_PORT=7077export SPARK_WORKER_CORES=4export SPARK_WORKER_MEMORY=4gexport SPARK_WORKER_INSTANCES=2export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_71export SCALA_HOME=/opt/scala/scala-2.10.4export HADOOP_HOME=/root/hadoop-2.6.4source spark-env.sh
Spark和Hadoop均需要修改slaves
vim slavesslave1slave2slave3slave4
Hadoop相关配置:
vim core-site.xmlhadoop.tmp.dir /root/hadoop-2.6.4/tmp fs.default.name hdfs://master:9000
vim hdfs-site.xmldfs.http.address master:50070 dfs.namenode.secondary.http-address master:50090 dfs.replication 1
vim mapred-site.xmlmapred.job.tracker master:9001 mapred.map.tasks 20 mapred.reduce.tasks 4 mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888
vim yarn-site.xmlyarn.resourcemanager.address master:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.webapp.address master:8088 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler
配置完上述内容后,在master节点上将上述两个解压包分发到slave1~slave4节点上:
scp -r spark-1.6.1-bin-hadoop2.6 root@slave1:~/scp -r hadoop-2.6.4 root@slave1:~/
注意ssh要提前配置好,Hadoop运行测试这里不再赘述,注意 jps命令查看状态
启动测试Spark
./sbin/start-all.sh
测试Spark自带的例子
./bin/spark-submit --master spark://master:7077 --class org.apache.spark.examples.SparkPi /root/spark-1.6.1-bin-hadoop2.6/lib/spark-examples-1.6.1-hadoop2.6.0.jar
测试Spark shell
./bin/spark-shell --master spark://master:7077
以上是"Spark1.6.1和Hadoop2.6.4完全分布式安装的示例分析"这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注行业资讯频道!
配置
内存
内核
测试
命令
节点
内容
分布式
示例
分析
成功
上将
密码
机器
篇文章
相同
不用
两个
价值
例子
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
数据库工作笔记
酒店网络安全措施
关于校园网络安全歌
潍坊餐饮软件开发报价明细
上海信息软件开发定制平均价格
9月17日网络安全教育
龙源数据库手机版和电脑版不同
建网站自己买服务器行不行
软件开发十大算法
关于网络安全视频30分钟
网络安全教育平台浙江
最简单的网络安全图画
深圳交友软件开发大概多少钱
网网络安全与执法能当刑警吗
娄底网络技术外包
在数据库技术中实体
定远进口软件开发技术大概费用
怀旧服能开新服务器吗
fm2021数据库怎么切换
服务器创建快照
购买的腾讯服务器内存满了怎么办
河北大规模软件开发配置
网络安全大队是干什么用的
网络安全法何时开始执行
春光建材保安器材服务器
nist数据库检索kI
软件开发的质量保证计划
江苏好的零件加工管理软件开发
山西gps授时模块服务器云空间
问道代理服务器