spark1.4.1如何配置
发表于:2025-12-01 作者:千家信息网编辑
千家信息网最后更新 2025年12月01日,这篇文章将为大家详细讲解有关spark1.4.1如何配置,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1.创建脚本cd /opt/spark-1.4.1-bin-h
千家信息网最后更新 2025年12月01日spark1.4.1如何配置
这篇文章将为大家详细讲解有关spark1.4.1如何配置,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
1.创建脚本
cd /opt/spark-1.4.1-bin-hadoop2.6/confcp spark-env.sh.template spark-env.shcp slaves.template slaves
2.程序加入环境变量
vi spark-env.shexport JAVA_HOME=/opt/jdk1.7.0_75export SCALA_HOME=/opt/scala-2.11.6export HADOOP_CONF_DIR=/opt/hadoop-2.6.0/etc/hadoop# spark的work目录临时文件自动清理,清理频率每半小时export SPARK_WORKER_DIR="/home/hadoop/spark/worker/"export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.interval=1800"vi slaves填入各节点hostname
3.系统加入环境变量
vi /etc/profileexport SPARK_HOME=/opt/spark-1.4.1-bin-hadoop2.6export PATH=$SPARK_HOME/bin:$PATH
4.启动
cd ../sbin/./start-all.sh
5.查看进程是否启动
jps4211 Master4367 Worker
6.进入spark的web页面 http://spore:8080/
7.使用spark-shell
cd ../bin/./spark-shell
8.sparkUI http://spore:4040
源码阅读,查看spark支持哪些sql关键字:
spark\sql\catalyst\src\main\scala\org\apache\spark\sql\catalyst\SQLParser.scala
spark-sql自定义函数例子
http://colobu.com/2014/12/11/spark-sql-quick-start/
如果要使用bin/spark-sql这个命令
必须启动hive metastore且conf/hive-site.xml内必须要有hive.metastore.uris的配置,例如
hive.metastore.uris thrift://byd0087:9083
启动bin/spark-sql,即可使用hive的HQL语句,速度可比hive快多了
关于"spark1.4.1如何配置"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。
配置
篇文章
变量
更多
环境
不错
实用
例子
关键
关键字
内容
函数
命令
小时
文件
文章
源码
目录
知识
程序
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
安庆明通网络技术有限公司
厦门到温州高速服务器
航天a6数据库连接
联想服务器t260怎么u盘启动
深圳排队网络技术
东莞本凡网络技术
国外服务器免费ip和密码
网络安全建设趋势图
超微服务器gpt修复
焦点科技+互联网保险
嵌入式软件开发特点
依米康与网络安全
网络安全对保险行业的影响
数据库访问行为分析仪的功能
教学系统的软件开发
公司软件开发的方式
网络安全工程师培训机构推荐
网络安全厂家排行榜2020
河北网络技术开发哪家好
重庆直销软件开发价格表
计算机软件开发可以考什么证书
中国邮政总公司软件开发中心
临床试验数据库说明性文件
HANA数据库中SUM方法
与高校合作软件开发协议
网络安全运维服务标准
数据库技术表怎么换行
2020网络安全大整顿多长时间
服务器机房标示牌
网络安全年