怎样使用sbt构建spark的项目
发表于:2025-12-01 作者:千家信息网编辑
千家信息网最后更新 2025年12月01日,本篇文章为大家展示了怎样使用sbt构建spark的项目,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。用Intellij 构建sbt项目 scala 使用2.1
千家信息网最后更新 2025年12月01日怎样使用sbt构建spark的项目
本篇文章为大家展示了怎样使用sbt构建spark的项目,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
用Intellij 构建sbt项目 scala 使用2.10.4
name := "gstorm"version := "1.0"version := "1.0"//Older Scala VersionscalaVersion := "2.10.4"val overrideScalaVersion = "2.11.8"val sparkVersion = "2.0.0"val sparkXMLVersion = "0.3.3"val sparkCsvVersion = "1.4.0"val sparkElasticVersion = "2.3.4"val sscKafkaVersion = "2.0.1"val sparkMongoVersion = "1.0.0"val sparkCassandraVersion = "1.6.0"//Override Scala Version to the above 2.11.8 versionivyScala := ivyScala.value map { _.copy(overrideScalaVersion = true)}resolvers ++= Seq( "All Spark Repository -> bintray-spark-packages" at "https://dl.bintray.com/spark-packages/maven/")libraryDependencies ++= Seq( "org.apache.spark" %% "spark-core" % sparkVersion exclude("jline", "2.12"), "org.apache.spark" %% "spark-sql" % sparkVersion excludeAll(ExclusionRule(organization = "jline"), ExclusionRule("name", "2.12")), "org.apache.spark" %% "spark-hive" % sparkVersion, "org.apache.spark" %% "spark-yarn" % sparkVersion, "com.databricks" %% "spark-xml" % sparkXMLVersion, "com.databricks" %% "spark-csv" % sparkCsvVersion, "org.apache.spark" %% "spark-graphx" % sparkVersion, "org.apache.spark" %% "spark-catalyst" % sparkVersion, "org.apache.spark" %% "spark-streaming" % sparkVersion, // "com.101tec" % "zkclient" % "0.9", "org.elasticsearch" %% "elasticsearch-spark" % sparkElasticVersion, // "org.apache.spark" %% "spark-streaming-kafka-0-10_2.11" % sscKafkaVersion, "org.mongodb.spark" % "mongo-spark-connector_2.11" % sparkMongoVersion, "com.stratio.datasource" % "spark-mongodb_2.10" % "0.11.1", "dibbhatt" % "kafka-spark-consumer" % "1.0.8", "net.liftweb" %% "lift-webkit" % "2.6.2")WordCount.scala
import org.apache.spark.sql.SparkSessionobject WordCount { def main(args: Array[String]): Unit = { val spark = SparkSession .builder() .appName("Spark SQL Example") .master("local[2]") .config("spark.sql.codegen.WordCount", "true") .getOrCreate() val sc = spark.sparkContext val textFile = sc.textFile("hdfs://hadoop:9000/words.txt") val wordCounts = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey((a, b) => a + b) wordCounts.collect.foreach(println) }}上述内容就是怎样使用sbt构建spark的项目,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注行业资讯频道。
项目
内容
技能
知识
简明
简明扼要
就是
文章
更多
篇文章
行业
资讯
资讯频道
频道
一亮
储备
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
浪潮k-db数据库资料
沈阳苹果手机软件开发需要多少钱
软件开发 辞职信
长岛平台软件开发公司
越南国家移动互联网科技公司
访问数据库的接口和类在哪个包中
后台软件开发工程师升级书籍
三级网络技术准备注意事项
正式服怎么换服务器
数据库审计系统由哪些部分组成
ipad如何修改网络安全
深圳市美恋网络技术
数据库老是断开怎么办
网络安全靠人民的理解
数据库差集怎么写
代理服务器 原理
居民情况数据库
腾讯维护网络安全的措施
1.7.1 服务器
湖南公安部网络安全监察部
服务器画图工具指令
现在网络安全问题有哪些
英魂之刃服务器为什么卡顿
无锡公司招收软件开发
网络安全周进校园活动总结
软件开发人员用什么显示器
福建博狼互联网科技
南沙林泽数据库
网络安全属于国家管理吗
数据库时间换空间策略好处