如何使用spark Context转成RDD
发表于:2025-12-01 作者:千家信息网编辑
千家信息网最后更新 2025年12月01日,这篇文章主要介绍"如何使用spark Context转成RDD",在日常操作中,相信很多人在如何使用spark Context转成RDD问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希
千家信息网最后更新 2025年12月01日如何使用spark Context转成RDD
这篇文章主要介绍"如何使用spark Context转成RDD",在日常操作中,相信很多人在如何使用spark Context转成RDD问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答"如何使用spark Context转成RDD"的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
一. 背景
在spark rdd转换算子中join和cogroup是有些需要区分的算子转换,这里使用示例来说明一下。
二. 示例
1.构建List示例数据
List> studentsList = Arrays.asList( new Tuple2 (1,"xufengnian"), new Tuple2 (2,"xuyao"), new Tuple2 (2,"wangchudong"), new Tuple2 (3,"laohuang") );List > scoresList = Arrays.asList( new Tuple2 (1,100), new Tuple2 (2,90), new Tuple2 (3,80), new Tuple2 (1,101), new Tuple2 (2,91), new Tuple2 (3,81), new Tuple2 (3,71) );
2.使用sparkContext转成RDD
JavaPairRDDstudentsRDD = sc.parallelizePairs(studentsList);JavaPairRDD scoresRDD = sc.parallelizePairs(scoresList);//studentsRDD 为:List >//(1,xufengnian)(2,xuyao)(2,wangchudong)(3,laohuang),下面进行打印查看studentsRDD.foreach(new VoidFunction >(){ public void call(Tuple2 tuple){ System.out.println(tuple._1);//1 2 3 System.out.println(tuple._2);// xufengnian xuyao laohuang }});
3.进行join
/*前面数据(1,xufengnian)(2,xuyao)(2,"wangchudong")(3,laohuang)(1,100)(2,90)(3,80)(1,101)(2,91)(3,81)(3,71)join之后:(1,(xufengnian,100))(1,(xufengnian,101))(3,(laohuang,80))(3,(laohuang,81))(3,(laohuang,71))(2,(xuyao,90))(2,(xuyao,91))(2,(wangchudong,90))(2,(wangchudong,91))*/JavaPairRDD> studentScores = studentsRDD.join(scoresRDD);//join为key相同的join,key不变,value变成(string,integer)studentScores.foreach(new VoidFunction >>() { private static final long serialVersionUID = 1L; @Override public void call(Tuple2 > student) throws Exception { System.out.println("student id: " + student._1);//1 1 3 System.out.println("student name: " + student._2._1);//xufengnian xufengnian laohuang System.out.println("student score: " + student._2._2);//100 101 80 System.out.println("==================================="); }});
4.进行cogroup
/*前面的数据(1,xufengnian)(2,xuyao)(2,"wangchudong")(3,laohuang)(1,100)(2,90)(3,80)(1,101)(2,91)(3,81)(3,71)cogroup之后:(1,([xufengnian],[100,101])) (3,([laohuang],[80,81,71])) (2,([xuyao,wangchudong],[90,91]))*/JavaPairRDD,Iterable >> studentScores2 = studentsRDD.cogroup(scoresRDD);studentScores2.foreach(new VoidFunction , Iterable >>>() { @Override public void call(Tuple2 , Iterable >> stu) throws Exception { System.out.println("stu id:"+stu._1);//1 3 System.out.println("stu name:"+stu._2._1);//[xufengnian] [laohuang] System.out.println("stu score:"+stu._2._2);//[100,101] [80,81,71] Iterable integers = stu._2._2; for (Iterator iter = integers.iterator(); iter.hasNext();) { Integer str = (Integer)iter.next(); System.out.println(str);//100 101 80 81 71 } System.out.println("==================================="); }});
到此,关于"如何使用spark Context转成RDD"的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注网站,小编会继续努力为大家带来更多实用的文章!
学习
数据
示例
更多
算子
帮助
实用
相同
接下来
文章
方法
理论
知识
篇文章
网站
背景
资料
跟着
问题
好用
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
服务器不绑定端口
数据库负载50%
英伦果园软件开发
以网络技术为支撑
铭冠网络安全怎么解决
中国科技与互联网发展前景
浙江物优网络技术有限公司
巩固网络安全态势
服务器怎么同时使用
应用软件开发步骤
怎样恢复数据库
网络安全单位安全专用产品
数据库设计的三种需求
西电网络安全专业博导有哪些
四川服务器电源一般多少钱
濮大的网络安全专业
域名更改服务器
软件开发人月如何测算
福建企业云空间系统服务器云主机
网络安全总结1500
大冶打拱软件开发
网络技术是怎么改变世界的
网络技术的基础应用小结
网络安全应急演练方案银监局
上海付正网络技术
南充软件开发培训机构
数据库位标签多条件查询
微软云服务器带宽
财务软件开发服务合同
公安部网络安全保卫局沈炜域