spark jobserver源码的示例分析
发表于:2025-12-03 作者:千家信息网编辑
千家信息网最后更新 2025年12月03日,小编给大家分享一下spark jobserver源码的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!spark j
千家信息网最后更新 2025年12月03日spark jobserver源码的示例分析
小编给大家分享一下spark jobserver源码的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
spark jobserver的特征:
1."Spark as Service":针对job和contexts的各个方面提供了REST风格的api接口进行管理2. 支持SparkSQL、Hive、StreamingContext/jobs以及定制job contexts!3. 通过集成 Apache Shiro 来支持 LDAP 权限验证4. 为了隔离每个sparkcontext单独一个jvm5. 通过长期运行的job contexts支持亚秒级别低延迟的任务6. 可以通过结束 context 来停止运行的作业(job)7. 分割 jar 上传步骤以提高 job 的启动速度8. 异步和同步的 job API,其中同步 API 对低延时作业非常有效9. 支持Standalone Spark和Mesos、yarn10. Job和jar信息通过一个可插拔的DAO接口来持久化11. 对RDD或DataFrame对象命名并缓存,通过该名称获取RDD或DataFrame。这样可以提高对象在作业间的共享和重用
建议大家可以从Spark jobserver的bin目录下手,比如server_start.sh脚本,该脚本本身就是一个spark 任务提交脚本比较好的范例。
#!/usr/bin/env bash# Script to start the job server# Extra arguments will be spark-submit options, for example# ./server_start.sh --jars cassandra-spark-connector.jar## Environment vars (note settings.sh overrides):# JOBSERVER_MEMORY - defaults to 1G, the amount of memory (eg 512m, 2G) to give to job server# JOBSERVER_CONFIG - alternate configuration file to use# JOBSERVER_FG - launches job server in foreground; defaults to forking in backgroundset -eget_abs_script_path() {pushd . >/dev/nullcd "$(dirname "$0")"appdir=$(pwd)popd >/dev/null}get_abs_script_pathset -a. $appdir/setenv.shset +aGC_OPTS_SERVER="$GC_OPTS_BASE -Xloggc:$appdir/$GC_OUT_FILE_NAME"MAIN="spark.jobserver.JobServer"PIDFILE=$appdir/spark-jobserver.pidif [ -f "$PIDFILE" ] && kill -0 $(cat "$PIDFILE"); thenecho 'Job server is already running'exit 1ficmd='$SPARK_HOME/bin/spark-submit --class $MAIN --driver-memory $JOBSERVER_MEMORY--conf "spark.executor.extraJavaOptions=$LOGGING_OPTS"--driver-java-options "$GC_OPTS_SERVER $JAVA_OPTS_SERVER $LOGGING_OPTS $CONFIG_OVERRIDES"$@ $appdir/spark-job-server.jar $conffile'if [ -z "$JOBSERVER_FG" ]; theneval $cmd > $LOG_DIR/server_start.log 2>&1 < /dev/null &echo $! > $PIDFILEelseeval $cmdfi
可以看到熟悉的spark-submit,入口函数就是spark.jobserver.JobServer的main函数,浪尖就不在这里展开了。
spark jobserver的大致架构如下图所示,大家也可以参照下图所示的思路提示去阅读,球友的话也可以去星球里找寻我周么发出来的提示。
以上是"spark jobserver源码的示例分析"这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注行业资讯频道!
支持
篇文章
脚本
作业
源码
示例
分析
任务
内容
函数
对象
就是
接口
同步
提示
运行
有效
下图
不怎么
信息
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
英国大学网络安全硕士专业
hp服务器更改主机名
互联网科技包装股东大会信息
服务器刚开机正常一会就开始卡了
提供数据库安全性控制
网络安全排名的大学
烟囱式软件开发到平台式
网络安全警示教育影视片
如何查看微数据库文件夹里
考试题库系统软件开发制作
excel数据太多数据库
数据库索引的使用
退款数据库设计
如何展示数据库中所有表
安卓删除数据库的数据
军运会期间网络安全通知
数据库备份到局域网
租服务器远程挂游戏
信息技术与网络技术区别
赣州最好的软件开发公司
小程序网络技术开发
杭州顾维网络技术有限公司
海南万稷网络技术有限公司的游戏
世界各国网络技术
ad域服务器时间同步
美国dna数据库
个人网站 云服务器
揭阳通讯软件开发维修电话
软件开发是1T行业吗
数据库列名怎么用