irpas技术客

【学习笔记】大数据技术之HBase_在学习的王哈哈

irpas 7163

大数据技术之HBase 思考?1. RegionServer和Master的区别?2. Hbase端口3. HBase写流程中,为什么要和zk进行交互? 第 1 章 HBase 简介1.1 HBase 定义1.2 HBase 数据模型1.2.1 HBase 逻辑结构1.2.2 HBase 物理存储结构1.2.3 数据模型 1.3 HBase 基本架构 第 2 章 HBase 快速入门2.1 HBase 安装部署2.1.1 Zookeeper 正常部署2.1.2 Hadoop 正常部署2.1.3 HBase 的解压2.1.4 HBase 的配置文件2.1.5 HBase 远程发送到其他集群2.1.6 HBase 服务的启动2.1.7 解决日志冲突2.1.8 查看 HBase 页面2.1.9 高可用(可选) 2.2 HBase Shell 操作2.2.1 基本操作2.2.2 namespace操作2.2.3 表的操作DDL2.2.4 数据的操作DML 第 3 章 HBase 进阶3.1 RegionServer详细架构3.2 写流程3.3 MemStore Flush3.4 读流程3.5 StoreFile Compaction3.6 Region Split 第 4 章 HBase API4.1 环境准备4.2 DDL4.2.1 创建一个namespace4.2.2 创建表格4.2.3 判断表格是否存在4.2.4 删除表格 4.3 DML4.3.1 添加数据4.3.2 删除数据4.3.3 获取数据4.3.4 查看数据 第 5 章 HBase 优化5.2 预分区5.3 RowKey 设计5.4 内存优化5.5 基础优化 第6章 整合Phoenix6.1 Phoenix简介6.1.1 Phoenix定义6.1.2 Phoenix特点6.1.3 Phoenix架构 第7章 与 Hive 的集成7.1 HBase 与 Hive 的对比7.2 HBase 与 Hive 集成使用

尚硅谷HBase教程(hbase框架快速入门)

思考? 1. RegionServer和Master的区别?

DDL,DML RegionServer实际存数据的地方,管理数据 Maser管理协调RegionServer,管理表

2. Hbase端口

服务端口: 16000 web端口: 16010

3. HBase写流程中,为什么要和zk进行交互? 第 1 章 HBase 简介 1.1 HBase 定义

HBase 是一种分布式、可扩展、支持海量数据存储的 NoSQL 数据库。

1.2 HBase 数据模型

逻辑上,HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。但从 HBase 的底层物理存储结构(K-V)来看,HBase 更像是一个 multi-dimensional map。

1.2.1 HBase 逻辑结构

1.2.2 HBase 物理存储结构

1.2.3 数据模型

1)Name Space 命名空间,类似于关系型数据库的 DatabBase 概念,每个命名空间下有多个表。HBase有两个自带的命名空间,分别是 hbase 和 default,hbase 中存放的是 HBase 内置的表,default 表是用户默认使用的命名空间。 2)Region 类似于关系型数据库的表概念。不同的是,HBase 定义表时只需要声明列族即可,不需要声明具体的列。这意味着,往 HBase 写入数据时,字段可以动态、按需指定。因此,和关系型数据库相比,HBase 能够轻松应对字段变更的场景。 3)Row HBase 表中的每行数据都由一个 RowKey 和多个 Column(列)组成,数据是按照 RowKey的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。 4)Column HBase 中的每个列都由 Column Family(列族)和 Column Qualifier(列限定符)进行限定,例如 info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。 5)Time Stamp 用于标识数据的不同版本(version),每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入 HBase 的时间。

6)Cell 由{rowkey, column Family:column Qualifier, time Stamp} 唯一确定的单元。cell 中的数据是没有类型的,全部是字节码形式存贮。

1.3 HBase 基本架构

Hbase依赖Zk实现高可用

架构角色: 1)Region Server Region Server 为 Region 的管理者,其实现类为 HRegionServer,主要作用如下: 对于数据的操作:get, put, delete; 对于 Region 的操作:splitRegion、compactRegion。

2)Master Master 是所有 Region Server 的管理者,其实现类为 HMaster,主要作用如下: 对于表的操作:create, delete, alter 对于 RegionServer的操作:分配 regions到每个RegionServer,监控每个 RegionServer的状态,负载均衡和故障转移。

3)Zookeeper HBase 通过 Zookeeper 来做 Master 的高可用、RegionServer 的监控、元数据的入口以及集群配置的维护等工作。

4)HDFS HDFS 为 HBase 提供最终的底层数据存储服务,同时为 HBase 提供高可用的支持。

第 2 章 HBase 快速入门 2.1 HBase 安装部署 2.1.1 Zookeeper 正常部署

首先保证 Zookeeper 集群的正常部署,并启动之:

[atguigu@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start [atguigu@hadoop103 zookeeper-3.4.10]$ bin/zkServer.sh start [atguigu@hadoop104 zookeeper-3.4.10]$ bin/zkServer.sh start 2.1.2 Hadoop 正常部署

Hadoop 集群的正常部署并启动:

[atguigu@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh [atguigu@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh 2.1.3 HBase 的解压

解压 Hbase 到指定目录:

[atguigu@hadoop102 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module

配置环境变量

sudo vim /etc/profile.d/my_env.sh #HABSE_HOME export HBASE_HOME=/opt/module/hbase export PATH=$PATH:$HBASE_HOME/bin source /etc/profile

分发环境变量

[wanghaha@hadoop102 module]$ scp /etc/profile.d/my_env.sh root@hadoop103:/etc/profile.d root@hadoop103's password: my_env.sh 2.1.4 HBase 的配置文件

修改 HBase 对应的配置文件。 1)hbase-env.sh 修改内容:

[wanghaha@hadoop103 kafka]$ echo $JAVA_HOME /opt/module/jdk1.8.0_212 export JAVA_HOME=/opt/module/jdk1.8.0_212 export HBASE_MANAGES_ZK=false # Configure PermSize. Only needed in JDK7. You can safely remove it for JDK8+ #export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m" #export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"

2)hbase-site.xml 修改内容: 默认端口号2181

<configuration> <property> <name>hbase.rootdir</name> <value>hdfs://hadoop102:8020/HBase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <!-- 0.98 后的新变动,之前版本没有.port,默认端口为 60000 --> <property> <name>hbase.master.port</name> <value>16000</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>hadoop102,hadoop103,hadoop104</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/opt/module/zookeeper-3.5.7/zkData</value> </property> </configuration>

3)regionservers:

hadoop102 hadoop103 hadoop104

4)软连接 hadoop 配置文件到 HBase:

[atguigu@hadoop102 module]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml /opt/module/hbase-1.3.1/conf/core-site.xml [atguigu@hadoop102 module]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml /opt/module/hbase-1.3.1/conf/hdfs-site.xml 2.1.5 HBase 远程发送到其他集群 [atguigu@hadoop102 module]$ xsync hbase/ 2.1.6 HBase 服务的启动

1.启动方式

[atguigu@hadoop102 hbase]$ bin/hbase-daemon.sh start master [atguigu@hadoop102 hbase]$ bin/hbase-daemon.sh start regionserver

提示:如果集群之间的节点时间不同步,会导致 regionserver 无法启动,抛出ClockOutOfSyncException 异常。 修复提示: a、同步时间服务 请参看帮助文档:《尚硅谷大数据技术之 Hadoop 入门》 b、属性:hbase.master.maxclockskew 设置更大的值

<property> <name>hbase.master.maxclockskew</name> <value>180000</value> <description>Time difference of regionserver from master</description> </property>

2.启动方式 2

[atguigu@hadoop102 hbase]$ bin/start-hbase.sh

对应的停止服务:

[atguigu@hadoop102 hbase]$ bin/stop-hbase.sh 2.1.7 解决日志冲突

102,103,104

rm -rf /opt/module/hbase-1.3.1/lib/slf4j-log4j12-1.7.5.jar 2.1.8 查看 HBase 页面

启动成功后,可以通过“host:port”的方式来访问 HBase 管理页面,例如: http://hadoop102:16010

2.1.9 高可用(可选)

在HBase中HMaster负责监控HRegionServer的生命周期,均RegionServer的负载,如果HMaster挂掉了,那么整个HBase集群将陷入不健康的状态,并且此时的工作状态并不会维持太久。所以HBase支持对HMaster的高可用配置。 1.关闭HBase集群(如果没有开启则跳过此步)

[atguigu@hadoop102 hbase]$ bin/stop-hbasel.sh

2.在conf目录下创建backup-masters文件

[atguigu@hadoop102 hbase]$ touch conf/backup-masters

3.在backup-masters文件中配置高可用HMaster节点

[atguigu@hadoop102 hbase]$ vim conf/backup-masters hadoop103 [wanghaha@hadoop102 conf]$ vim hbase-env.sh # File naming hosts on which backup HMaster will run. $HBASE_HOME/conf/backup-masters by default. # export HBASE_BACKUP_MASTERS=${HBASE_HOME}/conf/backup-masters 2.2 HBase Shell 操作 2.2.1 基本操作

1.进入 HBase 客户端命令行

[atguigu@hadoop102 hbase]$ bin/hbase shell

2.查看帮助命令

hbase(main):001:0> help

ctrl+backspace向后删

3.查看当前数据库中有哪些表

hbase(main):002:0> list 2.2.2 namespace操作 查看所有namespace hbase(main):002:0> list_namespace NAMESPACE default hbase 2 row(s) in 0.1430 seconds

可以通过help来查看用法,注意要用单引号

hbase(main):004:0> help 'create_namespace' Create namespace; pass namespace name, and optionally a dictionary of namespace configuration. Examples: hbase> create_namespace 'ns1' hbase> create_namespace 'ns1', {'PROPERTY_NAME'=>'PROPERTY_VALUE'} 创建 hbase(main):005:0> create_namespace 'mydb1' 0 row(s) in 0.9400 seconds hbase(main):006:0> list_namespace NAMESPACE default hbase mydb1 3 row(s) in 0.0120 seconds hbase(main):007:0> 修改namespace hbase(main):009:0> alter_namespace 'mydb1',{METHOD=>'set','createtime'=>'2022-4-6','author'=>'wanghaha'} 0 row(s) in 0.6220 seconds hbase(main):010:0> describe_namespace 'mydb1' DESCRIPTION {NAME => 'mydb1', author => 'wanghaha', createtime => '2022-4-6'} 1 row(s) in 0.0050 seconds 修改namespace hbase(main):011:0> help 'alter_namespace' Alter namespace properties. To add/modify a property: hbase> alter_namespace 'ns1', {METHOD => 'set', 'PROPERTY_NAME' => 'PROPERTY_VALUE'} To delete a property: hbase> alter_namespace 'ns1', {METHOD => 'unset', NAME=>'PROPERTY_NAME'} hbase(main):012:0> 删除 drop_namespace 'mydb1' 若存在表则删除不了 hbase(main):012:0> drop_namespace 'mydb1' 0 row(s) in 0.8720 seconds hbase(main):013:0> list_namespace NAMESPACE default hbase 2 row(s) in 0.0100 seconds 2.2.3 表的操作DDL

1.创建表 默认是namespace=default info为列族名称

hbase(main):002:0> create 'student','info'

指定namespace为mydb,创建名为student的表,f1代表列族,至少指定一个列族

hbase(main):002:0> create 'mydb:student',{NAME => 'f1',VERSIONS => 5}

可以简化成

hbase(main):002:0> create 'mydb:student','1'

查看namespace为mydb下的所有的表

hbase(main):018:0> list_namespace_tables 'mydb' TABLE student 1 row(s) in 0.0150 seconds

可以简化成list,将所有namespace下的自己创建的表展示出来

hbase(main):019:0> list TABLE mydb:student 1 row(s) in 0.0070 seconds => ["mydb:student"] hbase(main):020:0>

指定多个列族

hbase(main):022:0> create 'mydb:test4',{NAME=>'F1'},{NAME=>'F2'} 0 row(s) in 1.2210 seconds => Hbase::Table - mydb:test4

可以简化成

hbase(main):024:0> create 'mydb:test5','f1','f2' 0 row(s) in 1.2160 seconds => Hbase::Table - mydb:test5

查看表信息

hbase(main):027:0> desc 'mydb:test5' Table mydb:test5 is ENABLED mydb:test5 COLUMN FAMILIES DESCRIPTION {NAME => 'f1', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_EN CODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '6553 6', REPLICATION_SCOPE => '0'} {NAME => 'f2', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_EN CODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '6553 6', REPLICATION_SCOPE => '0'} 2 row(s) in 0.0580 seconds hbase(main):028:0>

4.查看表结构

hbase(main):011:0> describe ‘student’

可以简写 desc

10.删除表 首先需要先让该表为 disable 状态:

hbase(main):019:0> disable 'student'

然后才能 drop 这个表:

hbase(main):020:0> drop 'student'

提示:如果直接 drop 表,会报错:ERROR: Table student is enabled. Disable it first.

11.变更表信息 将 info 列族中的数据存放 3 个版本:

hbase(main):022:0> alter 'student',{NAME=>'info',VERSIONS=>3} hbase(main):022:0> get 'student','1001',{COLUMN=>'info:name',VERSIONS=>3}

增加一个列族

hbase(main):031:0> alter 'mydb:test4',NAME => 'f3',VERSIONS=>'2' Updating all regions with the new schema... 1/1 regions updated. Done. 0 row(s) in 2.0220 seconds hbase(main):032:0> desc 'mydb:test4' Table mydb:test4 is ENABLED mydb:test4 COLUMN FAMILIES DESCRIPTION {NAME => 'F1', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_EN CODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '6553 6', REPLICATION_SCOPE => '0'} {NAME => 'F2', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_EN CODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '6553 6', REPLICATION_SCOPE => '0'} {NAME => 'f3', BLOOMFILTER => 'ROW', VERSIONS => '2', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_EN CODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '6553 6', REPLICATION_SCOPE => '0'} 3 row(s) in 0.0130 seconds

删除操作

2.2.4 数据的操作DML

对数据的操作

插入数据到表 put hbase(main):003:0> put 'stu','1001','info:sex','male' hbase(main):004:0> put 'stu','1001','info:age','18' hbase(main):005:0> put 'stu','1002','info:name','Janna' hbase(main):006:0> put 'stu','1002','info:sex','female' hbase(main):007:0> put 'stu','1002','info:age','20'

put了两条数据1001,1002

hbase(main):038:0> put 'stu','10101','info:name','zhangsan' 0 row(s) in 0.0630 seconds hbase(main):040:0> get 'stu','10101' COLUMN CELL info:name timestamp=1649247828111, value=zhangsan 1 row(s) in 0.0080 seconds

3.扫描查看表数据

可以查看历史版本

hbase(main):002:0> scan 'stu',{RAW=>true,VERSIONS=>5} ROW COLUMN+CELL 1001 column=info:age, timestamp=1649248502718, value=18 1001 column=info:sex, timestamp=1649248496294, value=male 1002 column=info:age, timestamp=1649248515198, value=20 hbase(main):008:0> scan 'student' hbase(main):009:0> scan 'student',{STARTROW => '1001', STOPROW => '1001'} hbase(main):010:0> scan 'student',{STARTROW => '1001'}

!为acsll码中的倒数第二小值,第一小值为空格,~最大

hbase(main):011:0> scan 'stu' ROW COLUMN+CELL 1001 column=info:age, timestamp=1649248502718, value=18 1001 column=info:sex, timestamp=1649248496294, value=male 1002 column=info:age, timestamp=1649248515198, value=20 1002 column=info:sex, timestamp=1649248509357, value=female 1003 column=info:sex, timestamp=1649248865729, value=female 1003$ column=info:sex, timestamp=1649248888603, value=female 10101 column=info:name, timestamp=1649247828111, value=zhangsan 5 row(s) in 0.0150 seconds hbase(main):012:0> scan 'stu',{STARTROW=>'1001',STOPROW=>'1003!'} ROW COLUMN+CELL 1001 column=info:age, timestamp=1649248502718, value=18 1001 column=info:sex, timestamp=1649248496294, value=male 1002 column=info:age, timestamp=1649248515198, value=20 1002 column=info:sex, timestamp=1649248509357, value=female 1003 column=info:sex, timestamp=1649248865729, value=female 3 row(s) in 0.0140 seconds hbase(main):013:0>

5.更新指定字段的数据

hbase(main):012:0> put 'student','1001','info:name','Nick' hbase(main):013:0> put 'student','1001','info:age','100'

6.查看“指定行”或“指定列族:列”的数据 ,rowkey必须有

hbase(main):014:0> get 'student','1001' hbase(main):015:0> get 'student','1001','info:name'

7.统计表数据行数

hbase(main):021:0> count 'student'

8.删除数据 删除某 rowkey 的全部数据:

hbase(main):016:0> deleteall 'student','1001'

删除某 rowkey 的某一列数据(不指定时间戳,删除的是最新版本的数据):

hbase(main):017:0> delete 'student','1002','info:sex'

9.清空表数据

hbase(main):018:0> truncate 'student'

直接在HDFS中删数据,不需要打标记。

提示:清空表的操作顺序为先 disable,然后再 truncate。

第 3 章 HBase 进阶 3.1 RegionServer详细架构

1)StoreFile 保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的。 2)MemStore 写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到 HFile,每次刷写都会形成一个新的 HFile。 3)WAL 由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

4)BlockCache 对缓存,每次查询出的数据会缓存在BlockCache中,方便下次查询

3.2 写流程

写流程: 1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。 2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。 3)与目标 Region Server 进行通讯; 4)将数据顺序写入(追加)到 WAL; 5)将数据写入对应的 MemStore,数据会在 MemStore 进行排序; 6)向客户端发送 ack; 7)等达到 MemStore 的刷写时机后,将数据刷写到 HFile。

3.3 MemStore Flush

MemStore 刷写时机: 1.当某个 memstroe 的大小达到了 hbase.hregion.memstore.flush.size(默认值 128M),其所在 region 的所有 memstore 都会刷写。 当 memstore 的大小达到了hbase.hregion.memstore.flush.size(默认值 128M)* hbase.hregion.memstore.block.multiplier(默认值 4)时,会阻止继续往该 memstore 写数据。

2.当 region server 中 memstore 的总大小达到java_heapsize*hbase.regionserver.global.memstore.size(默认值 0.4*hbase.regionserver.global.memstore.size.lower.limit(默认值 0.95),region 会按照其所有 memstore 的大小顺序(由大到小)依次进行刷写。直到 region server中所有 memstore 的总大小减小到上述值以下。 当 region server 中 memstore 的总大小达到java_heapsize*hbase.regionserver.global.memstore.size(默认值 0.4)时,会阻止继续往所有的 memstore 写数据。

3.到达自动刷写的时间,也会触发 memstore flush。自动刷新的时间间隔由该属性进行配置 hbase.regionserver.optionalcacheflushinterval(默认 1 小时)。

4.当 WAL 文件的数量超过 hbase.regionserver.max.logs,region 会按照时间顺序依次进行刷写,直到 WAL 文件数量减小到 hbase.regionserver.max.log 以下(该属性名已经废弃,现无需手动设置,最大值为 32)。

3.4 读流程

读流程 1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。 2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。 3)与目标 Region Server 进行通讯; 4)分别在 Block Cache(读缓存),MemStore 和 Store File(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。 5) 将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为 64KB)缓存到Block Cache。 6)将合并后的最终结果返回给客户端。

3.5 StoreFile Compaction

由于memstore每次刷写都会生成一个新的HFile,且同一个字段的不同版本(timestamp)和不同类型(Put/Delete)有可能会分布在不同的 HFile 中,因此查询时需要遍历所有的 HFile。为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction。 Compaction 分为两种,分别是 Minor Compaction 和 Major Compaction。Minor Compaction会将临近的若干个较小的 HFile 合并成一个较大的 HFile,并清理部分过期和删除的数据。Major Compaction 会将一个 Store 下的所有的 HFile 合并成一个大 HFile,并且会清理掉所有过期和删除的数据。

3.6 Region Split

默认情况下,每个 Table 起初只有一个 Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server。

Region Split 时机: 1.当1个region中的某个Store下所有StoreFile的总大小超过hbase.hregion.max.filesize10G,该 Region 就会进行拆分(0.94 版本之前)。 2. 当 1 个 region 中 的 某 个 Store 下所有 StoreFile 的 总 大 小 超 过 Min(initialSize*R^3,"hbase.hregion.max.filesize"),该 Region 就会进行拆分。其中initialSIze的默认值为2hbase.hregion.memstore.flush.size(128M),其中 R 为当前 Region Server 中属于该 Table 的个数(0.94 版本之后)。 3.Hbase 2.0引入了新的split策略:如果当前RegionServer 上该表只有一个Region,按照2hbase.hregion.memstore.flu h.size分裂,否则按照hbase.hregion.max.filesize分裂。

第 4 章 HBase API 4.1 环境准备

新建项目后在 pom.xml 中添加依赖:

<dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-server</artifactId> <version>1.3.1</version> </dependency> <dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-client</artifactId> <version>1.3.1</version> </dependency> 4.2 DDL 4.2.1 创建一个namespace package com.wanghaha.hbase; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.HBaseConfiguration; import org.apache.hadoop.hbase.NamespaceDescriptor; import org.apache.hadoop.hbase.NamespaceExistException; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory; import java.io.IOException; /** * Connection : ConnectionFactory获取 重量级实现 * Table: 负责DML操作 * Admin: 负责DDL操作 */ public class HbaseDemo { private static Connection connection; static { Configuration conf = HBaseConfiguration.create(); conf.set("hbase.zookeeper.quorum", "hadoop102,hadoop103,hadoop104"); try { connection = ConnectionFactory.createConnection(conf); } catch (IOException e) { e.printStackTrace(); } } public static void main(String[] args) throws IOException { createNameSpace("mydb1"); } // 创建namaspace public static void createNameSpace(String nameSpace) throws IOException { // 基本的判空操作 if(nameSpace == null || nameSpace.equals("")){ System.err.println("namespace 名字不能为空"); return; } // 1. 获取Admin对象 Admin admin = connection.getAdmin(); NamespaceDescriptor.Builder builder = NamespaceDescriptor.create(nameSpace); NamespaceDescriptor namespaceDescriptor = builder.build(); try{ // 2. 调用方法 admin.createNamespace(namespaceDescriptor); System.out.println(nameSpace+"创建成功"); }catch (NamespaceExistException e){ System.err.println(nameSpace + "已经存在"); }finally { admin.close(); } } } 4.2.2 创建表格 /** * 创建表格 * @param namespaceName 命名空间 * @param tableName 表格名字 * @param cfs 列族 可以传递多个 * @throws IOException */ public static void createTable(String namespaceName, String tableName,String ... cfs) throws IOException { Admin admin = connection.getAdmin(); // 创建表属性对象, TableDescriptorBuilder tableDescriptorBuilder = TableDescriptorBuilder.newBuilder(TableName.valueOf(namespaceName, tableName)); if(cfs==null || cfs.length< 1){ System.err.println("至少指定一个列族名"); return; } // 在表的配置中,创建多个列族 for (String cf : cfs) { ColumnFamilyDescriptorBuilder columnFamilyDescriptorBuilder = ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(cf)); ColumnFamilyDescriptor columnFamilyDescriptor = columnFamilyDescriptorBuilder.build(); tableDescriptorBuilder.setColumnFamily(columnFamilyDescriptor); } TableDescriptor tableDescriptor = tableDescriptorBuilder.build(); // 根据表的配置创建表 admin.createTable(tableDescriptor); admin.close(); } 4.2.3 判断表格是否存在 /** * * @param nameSpaceName * @param tableName * @return * @throws IOException */ public static boolean existsTable(String nameSpaceName, String tableName) throws IOException { Admin admin = connection.getAdmin(); return admin.tableExists(TableName.valueOf(nameSpaceName,tableName)); } 4.2.4 删除表格 /** * 删除表格 * @param namespace * @param tableName * @throws IOException */ public static void dropTable(String namespace,String tableName) throws IOException { if(!existsTable(namespace,tableName)){ System.out.println("表不存在"); } // 创建admin Admin admin = connection.getAdmin(); TableName tableName1 = TableName.valueOf(namespace, tableName); // 删除前,先禁用表格 admin.disableTable(tableName1); // 进行删除表格操作 admin.deleteTable(tableName1); // 关闭admin admin.close(); } 4.3 DML 4.3.1 添加数据 /** * put操作 * @param nameSpaceName * @param tableName 表明 * @param rowkey * @param cf 列族 * @param c1 列名 * @param value 值 */ public static void putData(String nameSpaceName, String tableName, String rowkey, String cf, String c1, String value) throws IOException { // 获取table Table table = connection.getTable(TableName.valueOf(nameSpaceName, tableName)); Put put = new Put(Bytes.toBytes(rowkey)); // 对put对象 添加 列族。列名,值 put.addColumn(Bytes.toBytes(cf),Bytes.toBytes(c1),Bytes.toBytes(value)); // 对table进行put操作 table.put(put); // 关闭talbe table.close(); } 4.3.2 删除数据 public static void deleteData(String nameSpaceName, String tableName, String rowkey, String cf, String cl) throws IOException { // 获取table Table table = connection.getTable(TableName.valueOf(nameSpaceName, tableName)); Delete delete = new Delete(Bytes.toBytes(rowkey));// 如果只指定rowkey,就是删除整条数据。打的是deleteFamliy标签 //delete.addFamily(Bytes.toBytes(cf)); 指定删除某个列族的数据 //delete.addColumn(Bytes.toBytes(cf),Bytes.toBytes(cl)); 打的是delete标签 delete.addColumns(Bytes.toBytes(cf),Bytes.toBytes(cl)); // deleteColumn table.delete(delete);// table.close(); } 4.3.3 获取数据 public static void getData(String nameSpaceName, String tableName, String rowkey, String cf, String cl) throws IOException { Table table = connection.getTable(TableName.valueOf(nameSpaceName, tableName)); Get get = new Get(Bytes.toBytes(rowkey)); //get.addFamily(Bytes.toBytes(cf)); // 获取某一个列族的数据 get.addColumn(Bytes.toBytes(cf),Bytes.toBytes(cl)); Result result = table.get(get); // 返回的Resule对象,要进行处理. 也就是一条数据 Cell[] cells = result.rawCells();// 返回是cells数组 for (Cell cell : cells) { // cellutil是一个工具类,用来解析 cell String cellString = Bytes.toString(CellUtil.cloneRow(cell)) + " : " + Bytes.toString(CellUtil.cloneFamily(cell)) +" : " + Bytes.toString(CellUtil.cloneQualifier(cell)) +" : " + Bytes.toString(CellUtil.cloneValue(cell)); System.out.println(cellString); } table.close(); } 4.3.4 查看数据 public static void scanData(String nameSpaceName, String tableName, String startRow, String stopRow) throws IOException { Table table = connection.getTable(TableName.valueOf(nameSpaceName, tableName)); Scan scan = new Scan(); //scan.withStartRow(Bytes.toBytes(startRow)); //scan.withStopRow(Bytes.toBytes(stopRow)); scan.withStartRow(Bytes.toBytes(startRow)).withStopRow(Bytes.toBytes(stopRow)); ResultScanner scanner = table.getScanner(scan); // 多个result对象 for (Result result : scanner) { Cell[] cells = result.rawCells(); for (Cell cell : cells) { // cellutil是一个工具类,用来解析 cell String cellString = Bytes.toString(CellUtil.cloneRow(cell)) + " : " + Bytes.toString(CellUtil.cloneFamily(cell)) +" : " + Bytes.toString(CellUtil.cloneQualifier(cell)) +" : " + Bytes.toString(CellUtil.cloneValue(cell)); System.out.println(cellString); } System.out.println("---------------------------------------------------"); } table.close(); } 第 5 章 HBase 优化 5.2 预分区

每一个 region 维护着 StartRow 与 EndRow,如果加入的数据符合某个 Region 维护的RowKey 范围,则该数据交给这个 Region 维护。那么依照这个原则,我们可以将数据所要投放的分区提前大致的规划好,以提高 HBase 性能。 1.手动设定预分区

Hbase> create 'staff1','info','partition1',SPLITS => ['1000','2000','3000','4000']

2.生成 16 进制序列预分区

create 'staff2','info','partition2',{NUMREGIONS => 15, SPLITALGO => 'HexStringSplit'}

3.按照文件中设置的规则预分区 创建 splits.txt 文件内容如下:

aaaa bbbb cccc dddd

然后执行: hbase会重新排序

create 'staff3','partition3',SPLITS_FILE => 'splits.txt'

4.使用 JavaAPI 创建预分区

//自定义算法,产生一系列 hash 散列值存储在二维数组中 byte[][] splitKeys = 某个散列值函数 //创建 HbaseAdmin 实例 HBaseAdmin hAdmin = new HBaseAdmin(HbaseConfiguration.create()); //创建 HTableDescriptor 实例 HTableDescriptor tableDesc = new HTableDescriptor(tableName); //通过 HTableDescriptor 实例和散列值二维数组创建带有预分区的 Hbase 表 hAdmin.createTable(tableDesc, splitKeys); 5.3 RowKey 设计

一条数据的唯一标识就是 RowKey,那么这条数据存储于哪个分区,取决于 RowKey 处于哪个一个预分区的区间内,设计 RowKey 的主要目的 ,就是让数据均匀的分布于所有的region 中,在一定程度上防止数据倾斜。接下来我们就谈一谈 RowKey 常用的设计方案。

1.生成随机数、hash、散列值

比如: 原 本 rowKey 为 1001 的 , SHA1 后 变 成 : dd01903921ea24941c26a48f2cec24e0bb0e8cc7 原 本 rowKey 为 3001 的 , SHA1 后 变 成 : 49042c54de64a1e9bf0b33e00245660ef92dc7bd 原 本 rowKey 为 5001 的 , SHA1 后 变 成 : 7b61dec07e02c188790670af43e717f0f46e8913 在做此操作之前,一般我们会选择从数据集中抽取样本,来决定什么样的 rowKey 来 Hash后作为每个分区的临界值。

2.字符串反转

20170524000001 转成 10000042507102 20170524000002 转成 20000042507102

这样也可以在一定程度上散列逐步 put 进来的数据。 3.字符串拼接

20170524000001_a12e 20170524000001_93i7

rowkey设计+预分区: 原则: 唯一性 散列性 考虑长度 (尽可能短,底层会冗余存储) 场景:大量的运营商的通话数据

138888888(主叫) 1399999999(被叫) 2021-05-14 12:12:12 360 138888888(主叫) 1399999999(被叫) 2021-05-14 12:12:12 360 138888888(主叫) 1399999999(被叫) 2021-05-14 12:12:12 360 138888888(主叫) 1399999999(被叫) 2021-05-14 12:12:12 360

如何存储?存不是目的,目的是查。 结合实际业务:查询某个用户某天某月某年的通话记录 预分区 :先进行分区,预计规划50个分区

分析: 假如将某个用户某天的数据存到一个分区中。查某天的数据只需要扫描一个分区。但是查每月就要扫描30个分区。太散了 假如将某个用户某月的数据存到一个分区中,查某天某月的数据只需要一个分区。可取的方案

如何把某个用户某月的数据存到一个分区中 rowkey: 主叫_年-月 拼在一块 138888888_2021-05-14 12:12:12 —> 138888888_2021-05%分区数=01 138888888_2021-05-15 12:12:12 —> 138888888_2021-05%分区数=01 138888888_2021-05-19 12:12:12 —> 138888888_2021-05%分区数=01 —> 01-138888888_2021-05-14 12:12:12

验证: 查询 138888888用户 2020年08月的通话记录 1) 先计算分区号 :138888888_2021-08%分区数=08 2) rowkey : 04_138888888_2021-08-。。。。。 3)scan scan 'teldata',{STARTROW=> '04_138888888_2021-08', STOPROW=>'04_138888888_2021-08|'}

查询 138888888用户 2020年08月8日的通话记录 1) 先计算分区号 :138888888_2021-08%分区数=08 2) rowkey : 04_138888888_2021-08-。。。。。 3)scan scan 'teldata',{STARTROW=> '04_138888888_2021-08-08', STOPROW=>'04_138888888_2021-08-08|'}

5.4 内存优化

HBase 操作过程中需要大量的内存开销,毕竟 Table 是可以缓存在内存中的,一般会分配整个可用内存的 70%给 HBase 的 Java 堆。但是不建议分配非常大的堆内存,因为 GC 过程持续太久会导致 RegionServer 处于长期不可用状态,一般 16~48G 内存就可以了,如果因为框架占用内存过高导致系统内存不足,框架一样会被系统服务拖死。

5.5 基础优化

1.Zookeeper 会话超时时间 hbase-site.xml 属性:zookeeper.session.timeout 解释:默认值为90000毫秒(90s)。当某个RegionServer挂掉,90s之后Master才能察觉到。可适当减小此值,以加快Master响应,可调整至60000毫秒。 2.设置RPC监听数量 hbase-site.xml 属性:hbase.regionserver.handler.count 解释:默认值为30,用于指定RPC监听的数量,可以根据客户端的请求数进行调整,读写请求较多时,增加此值。 3.手动控制Major Compaction hbase-site.xml 属性:hbase.hregion.majorcompaction 解释:默认值:604800000秒(7天),Major Compaction的周期,若关闭自动MajorCompaction,可将其设为0 4.优化HStore文件大小 hbase-site.xml 属性:hbase.hregion.max.filesize 解释:默认值10737418240(10GB),如果需要运行HBase的MR任务,可以减小此值,因为一个region对应一个map任务,如果单个region过大,会导致map任务执行时间过长。该值的意思就是,如果HFile的大小达到这个数值,则这个region会被切分为两个 Hfile.

5. 优化HBase客户端缓存 hbase-site.xml 属性:hbase.client.write.buffer 解释:默认值2097152bytes(2M)用于指定HBase客户端缓存,增大该值可以减少RPC 调用次数,但是会消耗更多内存,反之则反之。一般我们需要设定一定的缓存大小,以达到减少RPC次数的目的。

6.指定scan.next扫描HBase所获取的行数 hbase-site.xml 属性:hbase.client.scanner.caching 解释:用于指定scan.next方法获取的默认行数,值越大,消耗内存越大。

7.BlockCache 占用RegionServer 堆内存的比例 hbase-site.xml 属性:hfile.block.cache.size 解释:默认0.4,读请求比较多的情况下,可适当调大

8.MemStore占用RegionServer堆内存的比例 hbase-site.xml 属性:hbase.regionserver.global.memstore.size 解释:默认0.4,写请求较多的情况下,可适当调大

第6章 整合Phoenix 6.1 Phoenix简介 6.1.1 Phoenix定义

Phoenix是HBase的开源SQL皮肤。可以使用标推JDBC API代替HBase客户端ALPI来创建表,插入数据和查询HBase数据。

6.1.2 Phoenix特点

联机事务处理OLTP 1)容易集成:如Spark,Hive,Pig,Flume和Map Reduce; 2)操作简单:DML命令以及通过DDL命令创建和操作表和版本化增量更改; 3)支持HBase二级索引创建。

6.1.3 Phoenix架构

第7章 与 Hive 的集成 7.1 HBase 与 Hive 的对比

1.Hive (1) 数据分析工具 Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方便使用 HQL 去管理查询。 (2) 用于数据分析、清洗 Hive 适用于离线的数据分析和清洗,延迟较高。 (3) 基于 HDFS、MapReduce Hive 存储的数据依旧在 DataNode 上,编写的 HQL 语句终将是转换为 MapReduce 代码执行。

2.HBase (1) 数据库 是一种面向列族存储的非关系型数据库。 (2) 用于存储结构化和非结构化的数据 适用于单表非关系型数据的存储,不适合做关联查询,类似 JOIN 等操作。 (3) 基于 HDFS 数据持久化存储的体现形式是 HFile,存放于 DataNode 中,被 ResionServer 以 region 的形式进行管理。 (4) 延迟较低,接入在线业务使用 面对大量的企业数据,HBase 可以直线单表大量数据的存储,同时提供了高效的数据访问速度。

7.2 HBase 与 Hive 集成使用

同时在 hive-site.xml 中修改 zookeeper 的属性,如下:

<property> <name>hive.zookeeper.quorum</name> <value>hadoop102,hadoop103,hadoop104</value> <description>The list of ZooKeeper servers to talk to. This is only needed for read/write locks.</description> </property> <property> <name>hive.zookeeper.client.port</name> <value>2181</value> <description>The port of ZooKeeper servers to talk to. This is only needed for read/write locks.</description> </property>

1.案例一 目标:建立 Hive 表,关联 HBase 表,插入数据到 Hive 表的同时能够影响 HBase 表。 分步实现: (1) 在 Hive 中创建表同时关联 HBase

CREATE TABLE hive_hbase_emp_table( empno int, ename string, job string, mgr int, hiredate string, sal double, comm double, deptno int) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno") TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

提示:完成之后,可以分别进入 Hive 和 HBase 查看,都生成了对应的表

(2) 在 Hive 中创建临时中间表,用于 load 文件中的数据 提示:不能将数据直接 load 进 Hive 所关联 HBase 的那张表中

CREATE TABLE emp( empno int, ename string, job string, mgr int, sal double, comm double, deptno int) row format delimited fields terminated by '\t';

(3) 向 Hive 中间表中 load 数据

hive> load data local inpath '/home/admin/softwares/data/emp.txt' into table emp;

(4) 通过 insert 命令将中间表中的数据导入到 Hive 关联 Hbase 的那张表中

hive> insert into table hive_hbase_emp_table select * from emp;

(5) 查看 Hive 以及关联的 HBase 表中是否已经成功的同步插入了数据 Hive:

hive> select * from hive_hbase_emp_table; HBase: Hbase> scan ‘hbase_emp_table’

2.案例二 目标:在 HBase 中已经存储了某一张表 hbase_emp_table,然后在 Hive 中创建一个外部表来关联 HBase 中的 hbase_emp_table 这张表,使之可以借助 Hive 来分析 HBase 这张表中的数据。 注:该案例 2 紧跟案例 1 的脚步,所以完成此案例前,请先完成案例 1。 分步实现: (1) 在 Hive 中创建外部表

CREATE EXTERNAL TABLE relevance_hbase_emp( empno int, ename string, job string, mgr int, hiredate string, sal double, comm double, deptno int) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno") TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

(2) 关联后就可以使用 Hive 函数进行一些分析操作了

hive (default)> select * from relevance_hbase_emp;


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。

标签: #学习笔记大数据技术之HBase #大数据技术之HBase思考1 #1 # #HBase #简介11