如何使用java写spark
发表于:2025-11-09 作者:千家信息网编辑
千家信息网最后更新 2025年11月09日,这篇文章给大家分享的是有关如何使用java写spark的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。package hgs.spark;import java.util.A
千家信息网最后更新 2025年11月09日如何使用java写spark
这篇文章给大家分享的是有关如何使用java写spark的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
package hgs.spark;import java.util.ArrayList;import java.util.Iterator;import java.util.List;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaPairRDD;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.api.java.function.FlatMapFunction;import org.apache.spark.api.java.function.Function2;import org.apache.spark.api.java.function.PairFlatMapFunction;import scala.Tuple2;public class JavaRDDWC { public static void main(String[] args) { //System.setProperty("HADOOP_USER_NAME","administrator"); //需要hadoop windows的winutils.exe System.setProperty("hadoop.home.dir", "D:\\hadoop-2.7.1"); SparkConf conf = new SparkConf().setAppName("javawc").setMaster("local[2]"); @SuppressWarnings("resource") JavaSparkContext context = new JavaSparkContext(conf); JavaRDD rdd = context.textFile("D:\\test.txt"); //split成数组 JavaRDD rdd1 = rdd.map(s -> s.split(",")); //只有pairrdd才可以reducebykey JavaPairRDD rdd2 = rdd1.flatMapToPair(new flatMapFunc()); JavaPairRDD rdd3 = rdd2.reduceByKey(new reducefunc()); rdd3.saveAsTextFile("D:\\fff"); context.stop(); }}class reducefunc implements Function2{ /** * */ private static final long serialVersionUID = 1L; @Override public Integer call(Integer v1, Integer v2) throws Exception { return v1+v2; }}class flatmf implements FlatMapFunction{ /** * */ private static final long serialVersionUID = 1L; @Override public Iterator call(String[] t) throws Exception { List list = new ArrayList<>(); for(String str : t) { list.add(str); } return list.iterator(); } }class flatMapFunc implements PairFlatMapFunction{ /** * */ private static final long serialVersionUID = 1L; @Override public Iterator> call(String[] t) throws Exception { List> list = new ArrayList<>(); for(String str : t) { list.add(new Tuple2(str, 1)); } return list.iterator(); } } 感谢各位的阅读!关于"如何使用java写spark"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
内容
更多
篇文章
不错
实用
只有
数组
文章
看吧
知识
参考
帮助
有关
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
视频会议软件数据库
数据库获取重复的关键字
离散数学和软件开发
互联网大会金智科技
炫视网络技术有限公司
西安维克阿普网络技术有限公司
存储数据库的一键备份
网络技术应用高级工程
ado.net数据库添加
国家信息网络安全管理办法
外文数据库信息检索
计算机网络技术专业分 哪些
智能产品类软件开发
服务器限制访问第三方
微服务的数据库表数量
常德串口服务器厂
深圳服务器机柜经销商
oral数据库期末考试
买的云服务器如何在电脑找出来
手机软件开发设计 题目
如何引用其他文件的数据库
网络安全密钥指的是什么意思
dayz换服务器要重新玩吗
mac可以使用的云服务器
mysql数据库定义
远程服务器不能粘贴
软件开发cdc是什么职位
计算机及网络技术培训
应用软件开发利用百度百科
dms还源bak数据库