spark sql与mysql数据怎么加载并导出数据到mysql
发表于:2025-12-01 作者:千家信息网编辑
千家信息网最后更新 2025年12月01日,本篇内容主要讲解"spark sql与mysql数据怎么加载并导出数据到mysql",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"spark sql与mys
千家信息网最后更新 2025年12月01日spark sql与mysql数据怎么加载并导出数据到mysql
本篇内容主要讲解"spark sql与mysql数据怎么加载并导出数据到mysql",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"spark sql与mysql数据怎么加载并导出数据到mysql"吧!
package hgs.spark.sqlimport org.apache.spark.SparkConfimport org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.sql.SQLContextimport org.apache.spark.sql.SQLImplicitsimport org.apache.spark.sql.types.StructTypeimport org.apache.spark.sql.types.StructFieldimport org.apache.spark.sql.types.StringTypeimport org.apache.spark.sql.types.IntegerTypeimport org.apache.spark.sql.Rowimport java.util.Properties//第一种方法创建dataframeobject SqlTest1 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("sqltest1").setMaster("local") val context = new SparkContext(conf) val sqlContext = new SQLContext(context) val rdd = context.textFile("d:\\person",1) val rdd2 = rdd.map(x=>{val t = x.split(" ");person(t(0).toInt,t(1),t(2).toInt)}) val rdd3 = rdd.map(x=>{val t = x.split(" ");person(t(0).toInt,t(1),t(2).toInt)}) //第一种方法创建dataframe,在这里需要导入隐式转换 import sqlContext.implicits._ val persondf = rdd2.toDF() val persondf3 = rdd3.toDF() //这个方法在2.1.0里面被废除 //persondf.registerTempTable("person") //使用该函数代替 persondf.createOrReplaceTempView("person") persondf3.createOrReplaceTempView("person2") val result = sqlContext.sql("select a.id ,b.name from person a ,person2 b where a.id = b.id") //打印查询的结果 result.show() //或者将结果保存到文件 //result.write.json("d://personselect") val props = new Properties(); props.put("user", "root") props.put("password", "123456") result.write.mode("append").jdbc("jdbc:mysql://192.168.6.133:3306/hgs", "person", props) //result.write.mode(saveMode) context.stop() }}case class person(id:Int,name:String,age:Int)object sqlTest3{ def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("sqltest3").setMaster("local") val context = new SparkContext(conf) val sqlContext = new SQLContext(context) val persontable = sqlContext.read.format("jdbc").option("url", "jdbc:mysql://192.168.6.133:3306/hgs") .option("dbtable", "person") .option("user", "root") .option("password", "123456").load().createOrReplaceTempView("person") sqlContext.sql("select id,concat(name,\"xxx\") from person").show() context.stop() }}到此,相信大家对"spark sql与mysql数据怎么加载并导出数据到mysql"有了更深的了解,不妨来实际操作一番吧!这里是网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
数据
方法
内容
结果
学习
查询
实用
更深
兴趣
函数
实用性
实际
操作简单
文件
更多
朋友
网站
频道
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
网络安全设备接入
福建通用软件开发价格实惠
南京软件开发培训班哪个好
海信电视升级服务器连接失败
足浴app软件开发
java连接可变数据库
河南云网互联网络科技有限公司
海淀区电子软件开发多少钱
discuz发布文章数据库
数据库查询王小明和李小萌的信息
宁夏进销存软件开发教程
关系模型数据库标准语言
抓 网络安全
轻量服务器架设论坛
软件开发赚美元
鄂州电子仓库软件开发
wind软件开发商
证监会网络安全审查办法
青海gps时钟同步数显钟服务器
计算机网络技术历年考试题
linux数据库导出命令
国家实行网络安全什么等级
虹口区数据软件开发服务保障
网络安全审查期间不能注册
杭州互联网科技企业排名
数据库排序语句加条件怎么加
云服务器费用 代驾app
数据库系统实验报告6
wind数据库怎么查薪酬吗
计算机网络技术历年考试题