spark怎么连接使用hbase
发表于:2025-12-02 作者:千家信息网编辑
千家信息网最后更新 2025年12月02日,本篇内容主要讲解"spark怎么连接使用hbase",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"spark怎么连接使用hbase"吧!一、环境准备1、复制
千家信息网最后更新 2025年12月02日spark怎么连接使用hbase
本篇内容主要讲解"spark怎么连接使用hbase",感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习"spark怎么连接使用hbase"吧!
一、环境准备
1、复制HBase目录下的lib文件 到 spark目录/lib/hbase。spark 依赖此lib
清单如下:guava-12.0.1.jar htrace-core-3.1.0-incubating.jar protobuf-java-2.5.0.jar 这三个jar加上以hbase开头所有jar,其它就不必了。全部复制会引起报错。
2、修改spark配置文件(spark-env.sh),在最后面增加一行
export SPARK_CLASSPATH=/usr/local/spark-1.5.1-bin-hadoop2.4/lib/hbase/*
3、重启spark 集群
二、代码
package com.xx;import org.apache.commons.logging.Log;import org.apache.commons.logging.LogFactory;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.client.Result;import org.apache.hadoop.hbase.client.Scan;import org.apache.hadoop.hbase.io.ImmutableBytesWritable;import org.apache.hadoop.hbase.mapreduce.TableInputFormat;import org.apache.hadoop.hbase.protobuf.ProtobufUtil;import org.apache.hadoop.hbase.protobuf.generated.ClientProtos;import org.apache.hadoop.hbase.util.Base64;import org.apache.hadoop.hbase.util.Bytes;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaPairRDD;import org.apache.spark.api.java.JavaSparkContext;import java.io.IOException;/** * spark 读取HBase数据 * @author Chenj */public class ReadHBase { private static final Log LOG = LogFactory.getLog(ErrorCount.class); private static final String appName = "hbase test"; private static final String master = "spark://192.168.1.21:7077"; public static void main(String[] avgs){ SparkConf conf = new SparkConf(). setAppName(appName). setMaster(master). setSparkHome(System.getenv("SPARK_HOME")). setJars(new String[]{System.getenv("jars")}); Configuration configuration = HBaseConfiguration.create(); configuration.set("hbase.zookeeper.property.clientPort", "2181"); //设置zookeeper client端口 configuration.set("hbase.zookeeper.quorum", "192.168.1.19"); // 设置zookeeper quorum configuration.addResource("/usr/local/hbase-1.0.1.1/conf/hbase-site.xml"); //将hbase的配置加载 configuration.set(TableInputFormat.INPUT_TABLE, "heartSocket"); JavaSparkContext sc = new JavaSparkContext(conf); Scan scan = new Scan(); scan.addFamily(Bytes.toBytes("d")); scan.addColumn(Bytes.toBytes("d"), Bytes.toBytes("consumeTime")); try { ClientProtos.Scan proto = ProtobufUtil.toScan(scan); String scanToString = Base64.encodeBytes(proto.toByteArray()); configuration.set(TableInputFormat.SCAN, scanToString); } catch (IOException e) { e.printStackTrace(); } JavaPairRDD rdd = sc.newAPIHadoopRDD(configuration, TableInputFormat.class, ImmutableBytesWritable.class, Result.class); LOG.info("总个数为:" + rdd.count()); }} 3、提交运行
./spark-submit --class com.xx.ReadHBase --master spark://ser21:7077 /usr/local/spark-1.0-SNAPSHOT.jar
到此,相信大家对"spark怎么连接使用hbase"有了更深的了解,不妨来实际操作一番吧!这里是网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
内容
文件
目录
学习
配置
实用
更深
一行
三个
个数
代码
兴趣
实用性
实际
开头
操作简单
数据
方法
更多
朋友
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
网络安全质量报告
vb sql更新数据库
软件开发实用软件
金税安全接入服务器
西瓜星球服务器在网易的哪里
建行的软件开发岗
phpsocket服务器框架
近五年软件开发的工作会怎么样
海南云兆网络技术有限公司联系方式
基本的网络安全防御产品有哪些
网络安全委员会成员
网络安全技术练习题答案
信创服务器搭建
泰国的服务器租用
网络安全存在的问题案例分析
城管局网络安全工作总结
禁域我的世界服务器ip
制作数据库需要哪些条件
弘芯服务器
赛盟服务器快捷键
公安部 网络安全大赛
网上购物系统数据库模式定义
为什么电话号码无法连接服务器
服务器QPI总线
废旧服务器主板含有多少黄金
网络安全信息方面进行的合作
张家界网络安全会议
长沙致友软件开发公司
服务器cpu金牌与银牌
数据库怎么建立主键列