乐趣区

HBase浅度学习

简介

hbase 是大数据 hadoop 的数据库

存储数据

 支持海量数据的存储
hbase 是构建在 hdfs 上的分布式数据库

检索数据

hbase 支持对存储在 hbase 表中的海量数据进行随机的实时的查询服务 
hbase 对其大表中的海量数据构建了层层索引 
    
    

已经有 RDBMS 数据库为什么还需要 hbase 这种 hadoop 数据库?(什么时候需要选择 hbase)

要存储的数据为海量的数据

RDBMS 
    集群性能比较弱,不容易集群节点扩展
    一旦存储的表的数据量较大,导致表的索引文件也变大,影响到后续的读写效率            
    
hbase 
    构建在 hdfs 上分布式数据库,支持节点无限扩展
    hbase 的出现就是 RDBMS 在面对海量数据存储及检索时的一个可替代工具 / 框架

要存储的数据为非结构化的数据

 结构化数据 
    mysql 或 hive 表中的数据结构化的数据 

非结构化的数据 
    每条数据的字段数量不相同 
    图片、视频、文本数据都是非结构化的数据
                
        

hbase 是一种 nosql 数据库(非关系型数据库)

“Not Only SQL”的缩写,不仅仅是 sql , 以 nosql 数据库在记录数据时所使用的数据结构的不同将 nosql 数据库分为四大家族

 列存储数据库家族 -- 代表 hbase  
    表中每列的数据是一个连续的存储单元 
    hive 表或者 mysql 中默认每行的数据是一个连续的存储单元 

文档型数据库家族 -- 代表 MongoDB  
    以文档形式记录数据库中的数据
    爬虫项目中
    
键值对数据库家族 -- 代表 redis
    以 key-value 形式记录数据的数据库 
    redis 是基于内存的 key-value 数据库 
        sparkStreaming/strom/Flink 进行实时分析计算 -》redis-》接入前端进行实时更新展示

图形结构数据库家族 -- 代表 Neo4J 
    以图形形式记录数据 
    

https://baike.baidu.com/item/…

hbase 常见的应用场景

  • 接入在线业务提供内容查询服务(借助 hbase 分布式数据库进行海量用户数据的存储,并依靠其完善的检索机制为海量数据提供随机的实时的查询服务)
  • 微博、论坛、朋友圈等社交数据的存储
    海量数据
    图片、视频、文本数据都是非结构化的数据
  • 各大电商平台的订单数据
    未完成的订单(热数据)– oracle
    已完成的订单(冷数据)– hbase
  • 物流信息存储查询
  • 银行客户交易数据
  • 支付公司的交易数据
  • 移动电信公司的话单记录存储
  • 交通数据存储
  • 医疗数据

  • 大数据分析平台中的数据存储库
    可以用 hbase 作为大数据分析平台中的数据源
    MapReduce、hive、spark 等计算框架可以直接从 hbase 表中读写数据

  • HBase 在滴滴出行的应用场景和最佳实践
    https://blog.51cto.com/xiaogo…

hbase 的特点:

hbase 源自于谷歌三大论文之一的 BigTable     
    GFS  -- hdfs  
    MapReduce  -- MapReduce 
    BigTable -- hbase 
hbase 在 hadoop 生态圈中的地位 
    构建在 hdfs 上分布式数据库,支持海量数据的存储 
    可以 MapReduce、hive、spark 框架进行集成使用  
基于【列存储】的数据库 
    列存储与行存储  
        RDBMS 数据库都是默认行存储  
            每行的数据在底层是一个连续的存储单元 
            在 select 查询时如果只涉及到表中的其中几列数据,则无关列也会被加载读取,大大增加系统的 io 流 
        Hbase 数据库默认是列存储 
            每列的数据在底层是一个连续的存储单元 
            在 select 查询时如果只涉及到表中的其中几列数据,则只有涉及到的列会被加载读取
            因为每列的数据保存在一起,并且每列的数据的数据类型相同,则更容易实现压缩存储  
适合存储非结构化和结构化的数据  
基于 key-value 形式存储的数据库 
    根据 key 来获取对应的 value 值
    rowkey+ 列簇 + 列 + 时间戳 =》value
高可靠、高性能、可伸缩的分布式数据库 
    高可靠、可伸缩:构建在 hdfs 上 
    高性能:对比 RDBMS,针对海量数据的读写是高性能的 
    

行存储与列存储
https://blog.csdn.net/dc_726/…

Hive 和 HBase 的区别?

hive
    面向分析的数据仓库工具(非数据库),使用的是 Hql 语句分析
    查询高延迟
    存储结构化数据
    不能直接接入 web 前端业务使用
    默认行存储,是纯逻辑表
    Hive 本身不存储和计算数据,它完全依赖于 HDFS 和 MapReduce,本质就是将 hql 转化为 mr。hbase
    面向数据存储和检索的数据库
        数据存储 -- 海量数据存储(底层是 hdfs)数据检索 -- 支持海量数据随机的、实时的数据检索(依靠层层索引)查询低延迟
        可以实现随机实时检索大表中的数据
    适合存储结构化和非结构化数据        
    可以接入 web 前端业务使用
    hbase 是列存储,是物理表,不是逻辑表,通过索引方便快速查询更新等操作
    hbase 是一个在 hdfs 上开发的面向列的分布式数据库,本身不支持 sql,但是可以借助其他插件实现 sql 功能。通过 hive 创建与 hbase 表的关联映射 -- 使用 hql 实现离线分析
        通过 Phoenix 插件实现实时分析

    Phoenix 介绍:针对 hbase 开发的第三方插件,目前已贡献给 Apache               
        Phoenix 是构建在 HBase 上的一个 SQL 层
        Phoenix 完全使用 Java 编写,作为 HBase 内嵌的 JDBC 驱动能让我们用标准的 JDBC API 而不是 HBase 客户端 API 来创建表、插入数据和查询数据。Phoenix 查询引擎会将 SQL 查询转换为一个或多个 HBase 扫描,编排执行以生成标准的 JDBC 结果集。JDBC 是一种用于执行 SQL 语句的 Java API               
        版本    Phoenix 2.x/3.x - HBase 0.94.x
                Phoenix 4.x - HBase 0.98.1+    
                

RDBMS 和 HBase 的区别?

** HBase 是分布式架构, 支持服务器在线添加和移除,可以很好的扩展(基于 hdfs)** RDBMS 可以使用 sql 语句,HBase 通常使用 API 来访问 [第三方插件支持 phoenix]
** RDBMS 是基于行存储,HBase 是基于列存储, 可以支持更好的存储和压缩
** RDBMS 适合存储结构化的数据,HBase 适合结构化和非结构化的数据存储
** RDBMS 支持比较好的事务,HBase 不支持事务
** RDBMS 支持多表 Join,HBase 不支持 Join
** 通常 HBase 表的应用场景比较简单, 不适合业务逻辑很复杂的查询环境
** RDBMS 相比较 hbase 有更完善的索引机制
** HBase 通常应用都是单表数据量巨大, 用关系型数据库无法满足的情况        
    
    
    

hbase 架构角色

hbase 分布式数据库是主从架构 
    

master

hbase 的集群的主节点 
管理用户对 hbase 表的增删改查(表整体非表内的数据)管理并分配表的 region 给 regionserver 从节点, 分配时遵循一个【散列原则:同一张表多个分片尽量分配个不同的机器】及【负载均衡原则:不同的机器尽量处理相同数量的分片】监控 regionserver 的运行状态及 regionserver 节点宕机后的容灾处理  
    master 借助 zookeeper 间接监控 regionserver 
    zookeeper 会感知 regionserver 节点的上线和下线 
        regionserver 启动后会在 zookeeper 上注册信息
    但某个 regionserver 节点宕机后 zookeeper 会第一时间感知并及时通知 master,master 会进行容灾处理将此 regionserver 节点上管理的 region 重构在其他 regionserver 节点上
    

regionserver

hbase 的从节点  
管理 master 所分配的 region 
真正响应客户端对表的读写请求的节点

HRegion

table 在行的方向上分隔为多个 Region。Region 是 HBase 中分布式存储和负载均衡的最小单元,即不同的 region 可以分别在不同的 Region Server 上,但同一个 Region 是不会拆分到多个 server 上。

Store

 每个 region 至少一个 store,每个列簇对应一个 store
一个 Store 由一个 memStore 和 0 或者 多个 StoreFile 组成。HBase 以 store 的大小来判断是否需要切分 region

HLog

HLog(WAL log):WAL 意为 write ahead log,用来做灾难恢复使用,HLog 记录数据的所有变更,一旦 region server 宕机,就可以从 log 中进行恢复。每个 Region Server 维护一个 Hlog, 而不是每个 Region 一个。HLog 文件就是一个普通的 Hadoop Sequence File,Sequence File 的 value 是 key 时 HLogKey 对象,其中记录了写入数据的归属信息,除了 table 和 region 名字外,还同时包括 sequence number 和 timestamp,timestamp 是写入时间,sequence number 的起始值为 0,或者是最近一次存入文件系统中的 sequence number。Sequence File 的 value 是 HBase 的 KeyValue 对象,即对应 HFile 中的 KeyValue。

memStore

memStore 是放在内存里的。保存修改的数据即 keyValues。当 memStore 的大小达到一个阀值(默认 128MB)时,memStore 会被 flush 到文 件,即生成一个快照。目前 hbase 会有一个线程来负责 memStore 的 flush 操作。

StoreFile

memStore 内存中的数据写到文件后就是 StoreFile,StoreFile 底层是以 HFile 的格式保存。当 storefile 文件的数量增长到一定阈值后,系统会进行合并(minor、major compaction),在合并过程中会进行版本合并和删除工作(majar),形成更大的 storefile。

hdfs

hbase 表数据最终落地在 hdfs 上 
为 hbase 的表数据提供了一个存储平台 

zookeeper

hbase 强依赖 zookeeper  
    kafka、storm 也是强依赖 zookeeper
zookeeper 基于第三方观察者模式监控 regionserver、master 的运行状态及节点宕机后的容灾处理 
    保证 hbase 集群的高可用性
        hbase 可以为 master 节点配置多个备份 
        当 active master 宕机后 zookeeper 会感知并从备份 master 中选举出一个作为后续的 active master  
zookeeper 持有 hbase 集群的所有的服务器节点信息及所有用户表的元数据信息的位置信息 
    持有 hbase 集群的所有的服务器节点信息 
        hbase 服务启动后 master 及 regionserver 节点会向 zookeeper 上注册自己的节点信息 
            
    持有所有用户表的元数据所在的 meta 表的 region 位置信息!!!hive 表的元数据 -- 存在 RDBMS 数据库 
        hbase 表的元数据 -- 存在在 hbase 上的一张名称为 meta 的系统表中  
        
        hbase 上所有用户表的元数据信息都存在 hbase 上的一个 meta 表中  
        meta 表的数据量通常比较少,所有 meta 表通常只有一个 region
        此 meta 表的 region 会被 master 分配给某个 regionserver 节点管理  
        zookeeper 持有该 meta 表的 region 所在的 regionserver 节点信息(知道 meta 表的 region 在哪个 regionserver 节点上)meta 表存有用户表的哪些元数据信息呢?用户表分成了几个 region 
            每个 region 的 key 的范围信息  
            每个 region 所在 regionserver 节点信息 
            …… 


                

hbase 安装部署

1、安装 hadoop 并启动 hdfs 服务

2、安装并启动 zookeeper 服务

3、上传解压并修改 hbase 配置文件

$ tar zxf /opt/softwares/hbase-1.2.0-cdh5.14.2.tar.gz -C /opt/cdh-5.14.2/
    
1)修改 hbase-env.sh    
    # The java implementation to use.  Java 1.7+ required.
    export JAVA_HOME=/opt/cdh-5.14.2/jdk1.8.0_112
    # Tell HBase whether it should manage it's own instance of Zookeeper or not.
    export HBASE_MANAGES_ZK=false
    
2)修改 hbase-site.xml 

声明 hbase 表相关数据在 hdfs 上的根目录 
     <property>
        <name>hbase.rootdir</name>
        <value>hdfs://192.168.134.101:8020/hbase</value>
      </property>
      
      <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
      </property>
      
      <!-- 声明外置的 zookeeper 集群节点服务器 ip 地址  -->
      <property>
        <name>hbase.zookeeper.quorum</name>
        <value>192.168.134.101</value>
      </property>
3)修改 regionservers 
    声明集群中的哪些服务器作为 hbase 的 regionserver 节点 
    类似于 hadoop 中配置 slaves
    
    192.168.134.101    
    

4、启动 hbase 服务

 在主节点服务器上启动 master 进程 
    $ bin/hbase-daemon.sh start master
在所有的 hbase 的从节点服务器上启动 regionserver 进程 
    $ bin/hbase-daemon.sh start regionserver 
    
或者在 master 节点服务器上执行 
    $ bin/start-hbase.sh 
    

5、hbase 的 web 管理平台

http://192.168.134.101:60010/master-status 

    user table -- 用户表  
    system table -- 系统表 
        hbase:meta    
            hbase 的元数据表 
            存储了所有用户表的 region 的引用 
        hbase:namespace 
            命名空间表  
            

6、启动 hbase 后的 zookeeper 及 hdfs 上的变化

    hdfs 上 
        /hbase/data/
            hbase 的表数据的命名空间库目录 
            自定义的命名空间库目录将出现在该 data 目录下
        /hbase/data/default 
            默认命名空间库目录 
            在 hbase 上建表时如果未指定表的命名空间库则默认创建在 default 下 
        /hbase/data/hbase 
            系统命名空间库目录 
            meta --- meta 表数据目录  
            namespace -- 命名空间库元数据表     
            
    zookeeper 
        $ bin/zkCli.sh 
        ls /hbase                    
            meta-region-server  -- meta 表的位置信息 
            rs -- regionserver 节点的信息 
            backup-masters -- master 节点的备份信息 
            master -- active master 节点信息 
        

hbase 表的存储模型及存储模型中的专业术语

rowkey:行健  
    用来标识 hbase 表中唯一一行数据  
    类似 RDBMS 中的主键  
column family:列簇 / 列族    
    可以将某些列组织到一起形成一个家族 
    列簇为一张表的列增加一层索引
    在 hbase 表创建时可以声明多个列簇,一般应用中列簇的数量不超过 3 个,最好只设置 1 个列簇????在创建表至少要声明一个列簇 , 但是不需要声明列名 
column:列 
    值所属的列  
    hbase 表中不同的行可以有不同的列 
    在 hbase 表中插入具体数据时再指定列名 
    某个列必须要属于某个列簇  
cell:单元格  
    单元格是 hbase 表最小最基本的存储单元  
    单元格是实际值的存储地 
    每个单元格的组成 : rowkey+ 列簇 + 列 + 时间戳 =》value 值  
        时间戳:value 值在插入到单元格那一刻的时间戳 
            时间戳可以用来区分一个单元格中多个历史版本的值 
        版本:hbase 表的单元格中可以存储多个历史版本值  
            一个单元格中默认显示的最新版本的值 
        
在 hbase 表中如何指定唯一的一个单元格 / 唯一的值 
    rowkey+ 列簇 + 列 =》单元格 
    rowkey+ 列簇 + 列 + 时间戳 =》唯一的值 
            
    
    

hbase shell 基本使用

与 hbase 进行交互的几种方式

hbase shell -- 测试 
web ui(hue)-- 测试  
java api / Phoenix -- 生产 

    

$ bin/hbase shell 进入到 hbase 的 shell 交互命令行

退格键出现乱码:

xshell 
    文件 - 属性 - 终端 - 键盘 - 两个都选择 ASCII 127  
secureCRT 
    选项 - 会话选项 - 仿真 - 终端 - 选择 linux 
    选项 - 会话选项 - 映射键 - 两个勾选 
            

help 查看 hbase shell 支持的命令

COMMAND GROUPS:
  Group name: general
  Commands: status, table_help, version, whoami

  Group name: ddl
  Commands: alter, alter_async, alter_status, create, describe, disable, disable_all, drop, drop_all, enable, enable_all, exists, get_table, is_disabled, is_enabled, list, locate_region, show_filters

  Group name: namespace
  Commands: alter_namespace, create_namespace, describe_namespace, drop_namespace, list_namespace, list_namespace_tables

  Group name: dml
  Commands: append, count, delete, deleteall, get, get_counter, get_splits, incr, put, scan, truncate, truncate_preserve

  Group name: tools
  Commands: assign, balance_switch, balancer, balancer_enabled, catalogjanitor_enabled, catalogjanitor_run, catalogjanitor_switch, close_region, compact, compact_mob, compact_rs, flush, major_compact, major_compact_mob, merge_region, move, normalize, normalizer_enabled, normalizer_switch, split, trace, unassign, wal_roll, zk_dump

  Group name: replication
  Commands: add_peer, append_peer_tableCFs, disable_peer, disable_table_replication, enable_peer, enable_table_replication, get_peer_config, list_peer_configs, list_peers, list_replicated_tables, remove_peer, remove_peer_tableCFs, set_peer_tableCFs, show_peer_tableCFs, update_peer_config

  Group name: snapshots
  Commands: clone_snapshot, delete_all_snapshot, delete_snapshot, list_snapshots, restore_snapshot, snapshot

  Group name: configuration
  Commands: update_all_config, update_config

  Group name: quotas
  Commands: list_quotas, set_quota

  Group name: security
  Commands: grant, list_security_capabilities, revoke, user_permission

  Group name: procedures
  Commands: abort_procedure, list_procedures

  Group name: visibility labels
  Commands: add_labels, clear_auths, get_auths, list_labels, set_auths, set_visibility

  Group name: rsgroup
  Commands: add_rsgroup, balance_rsgroup, get_rsgroup, get_server_rsgroup, get_table_rsgroup, list_rsgroups, move_servers_rsgroup, move_tables_rsgroup, remove_rsgroup

创建表命令

create ‘ns1:t1’, {NAME => ‘f1’, VERSIONS => 5}

    在 ns1 命名空间库下创建一个 t1 表
    t1 表有一个名称为 f1 的列簇,并且该列簇下的单元格可最大支持 5 个版本值

create_namespace ‘ns1’ 创建一个命名空间库

list_namespace

list 查看用户表

create ‘t1’, {NAME => ‘f1’}, {NAME => ‘f2’}, {NAME => ‘f3’}

    在默认命名空间库下创建一个 t1 表  
    该表有三个名称为 f1 f2 f3 的列族   
        

describe ‘t1’ 描述一张表

create ‘t2’, {NAME => ‘f1’, VERSIONS => 2}, {NAME => ‘f2’, VERSIONS => 4}, {NAME => ‘f3’}

 在 hbase 表同一张表中不同的列簇可以有不同的属性值 
    因为同一张表下的同一个列簇中的 cell 存在同一个文件中,不同列簇中的 cell 存放在不同文件中

create ‘t1’, ‘f1’, ‘f2’, ‘f3’

 创建一个 t1 表,并且该表的三个列簇都使用默认属性    
如果希望对列簇进行特殊属性设定,需要使用 {NAME => 'f1', VERSIONS => 2}
    

创建一个员工表并插入数据

create 'emp' , 'info1','info2'   

# put 插入 / 更新数据 
# 一次只能插入一个 cell,注意和 sql 的区别,不能 insert 插入一整行数据

hbase(main):037:0> put 'emp', '10003', 'info1:name', 'tom'
0 row(s) in 0.2320 seconds

hbase(main):038:0> put 'emp', '10003', 'info1:age', '25'
0 row(s) in 0.0090 seconds

hbase(main):039:0> put 'emp', '10003', 'info2:school', 'jiaoda'
0 row(s) in 0.0200 seconds

hbase(main):040:0> put 'emp', '10003', 'info2:qq', '1234554321'
0 row(s) in 0.0100 seconds

hbase(main):041:0> put 'emp', '10004', 'info1:name', 'lio'
0 row(s) in 0.0060 seconds

hbase(main):042:0> put 'emp', '10004', 'info1:sex', 'boy'
0 row(s) in 0.0090 seconds

hbase(main):043:0> put 'emp', '10004', 'info1:tall', '175cm'
0 row(s) in 0.0300 seconds

hbase(main):044:0> put 'emp', '10004', 'info2:job1', 'java'
0 row(s) in 0.0140 seconds

hbase(main):045:0> put 'emp', '10004', 'info2:job2', 'bigdata'
0 row(s) in 0.0330 seconds

hbase(main):046:0> put 'emp', '10005', 'info1:name', 'lili'
0 row(s) in 0.0190 seconds

hbase(main):047:0> put 'emp', '10005', 'info2:school', 'ligong'
0 row(s) in 0.0190 seconds

hbase(main):048:0> put 'emp', '10006', 'info1:name', 'mary'
0 row(s) in 0.0510 seconds

hbase(main):049:0> put 'emp', '10006', 'info1:age', '18'
0 row(s) in 0.0440 seconds

hbase(main):050:0> put 'emp', '10006', 'info2:job1', 'UI'

scan 查询数据

scan 'emp'    
scan 'emp' , {COLUMNS => 'info1'}     查看某张表中某个列簇下的数据  
scan 'emp' , {COLUMNS => 'info1:name'}    查看某列数据  
scan 'emp' , {COLUMNS => ['info1:name','info1:age']}     查看多列数据  
scan 'emp' , {COLUMNS => ['info1:name','info1:age']}     查看多列数据  
scan 'emp' , {COLUMNS => 'info1:name',LIMIT => 3}     最前面的 3 条数据 
scan 'emp' , {COLUMNS => 'info1',STARTROW => '10004',STOPROW=>'10006'}    某个 rowkey 范围内的数据  

显示出来的每行是一个 cell


get 查询数据

scan 是一个 范围扫描查询 
get 只能查询某条范围内的数据   
get 'emp','10004'  查询某行数据
get 'emp','10004' ,{COLUMN => 'info1'} 查询某行数据下的某个列簇下的数据
get 'emp','10004' ,{COLUMN => 'info1:name'}  查询某个 cell 中的数据最新版本的值  
get 't1', 'r1', {COLUMN => 'c1', TIMESTAMP => ts1}  查询指定历史版本的值 
get 't1', 'r1', {COLUMN => 'c1',  VERSIONS => 4} 查询指定的 cell 中最新 4 个历史版本值 

delete/deleteall 删除数据

delete– 删除某个 value 值

deleteall– 删除的某行或某个 cell

delete 't1', 'r1', 'c1', ts1  删除指定历史版本的值  
delete 'emp','10004','info2:job1'  不指定时间戳删除的是最新版本的值 
deleteall 'ns1:t1', 'r1'  删除某行数据  
deleteall 't1', 'r1'
deleteall 't1', 'r1', 'c1'  删除某个 cell 单元格  
deleteall 't1', 'r1', 'c1', ts1  测试!!!

演示多版本值:

create 'emp2' ,{NAME => 'info', VERSIONS => 5}
put 'emp2','10005','info:age' ,'18'
put 'emp2','10005','info:age' ,'19'
put 'emp2','10005','info:age' ,'20' 
scan 'emp2',{VERSIONS => 2}   查询所有 cell 最新 2 个版本的值  
delete 'emp2','10005','info:age' 不指定时间戳删除的是最新版本的值  
delete 'emp2','10005','info:age' ,1543999422333  删除指定历史版本的值     

修改表的 hbase shell 命令

alter 't1', NAME => 'f1', VERSIONS => 5  将 t1 表中的 f1 列簇的 VERSIONS 属性值改为 5  
alter 'ns1:t1', NAME => 'f1', METHOD => 'delete'  将 t1 表中的 f1 列簇删除 
alter 't1', NAME => 'f2', METHOD => 'delete' 

truncate ’emp2′ 清空表

disable ’emp1′ 禁用

drop ’emp1′ 删除表

count ’emp’ 统计多少行


hbase 表的读写流程

 十五章 -46 页 架构图     

HBase 读数据流程:– 根据 rowkey 查询 emp 表数据

1、client 先去访问 zookeeper, 从 zookeeper 里面获取 meta 表所在位置信息
        0.96 之前的版本除了 meta 表还有一个 root 表,root 表存储 meta 表位置信息,先通过 zookeeper 获取 root 表位置
        在从 root 表中读取 meta 表位置
        现在直接将 meta 表位置存入 zookeeper 中,减少会话次数
2、client 向 meta 所在 regionserver 发起访问, 读取 meta 表数据,获取 hbase 集群上所有 user 表的元数据
3、根据 meta 表中 emp 表的 region 的位置信息,client 找到了当前需要访问的 emp 表对应的 region 及所在的 regionserver 服务器
4、client 向对应 regionserver 服务器发起读请求
5、regionserver 收到 client 访问请求,先扫描 memstore,在扫描 blockcache,最后再读取 storefile[HDFS] 文件
6、regionserver 把数据响应给 client

HBase 写数据流程:– 根据 rowkey 写入 emp 表

1、client 先去访问 zookeeper, 从 zookeeper 里面获取 meta 表所在位置信息
2、client 向 meta 所在 regionserver 发起访问, 读取 meta 表数据,获取 hbase 集群上所有 user 表的元数据
3、根据 meta 表中 emp 表的 region 的位置信息,client 找到了当前需要访问的 emp 表对应的 region 及所在的 regionserver 服务器
4、client 向对应 regionserver 服务器发起写请求
5、regionserver 收到 client 请求, 并响应,client 先把数据写入 HLog, 防止数据丢失
6、再把数据写入 memstore 内存缓存区, 默认 128M
7、当 Hlog 和 memstore 都写入成功, 则这条数据写入成功    
8、当 memstore 达到阀值 [128M], 会把 memstore 里面的数据 Flush 成 storefile
9、当 [128M]storefile 越来越多, 会触发 compact 合并操作, 把多 storefile 合并成一个大的 storefile
    合并的期间会删除过期的版本或数据,例如更新或 delete 删除的数据并未直接删除,而是打了删除标签直到此时才会真正删除    
10、当单个 storefiles[region] 越来越大, 达到一定阀值(10G 或其他动态阈值)时会触发 split 操作,region 被一分为二被管理    


写流程中的三大机制

flush 机制
compaction 机制 
split 机制  


hbase java api 使用

 增删改查操作  






hbase 表的物理模型

hbase 中将表分成了 1 个或多个 region 进行分布式管理
region 是 hbase 表管理的基本单元   

hbase 为什么将表分成多个 region 进行管理呢?如果表比较大不利于表数据的并行读写操作 
    分而治之
    
一张表如何分成多个 region 的?创建表时进行预分区 
        默认建表时不进行预分区则表只有 1 个 region   
        建表时可以指定一个表的 region 的个数及 region 的 key 的范围
            这个指定的 key 是 rowkey 的前缀
    region 被动 split 分割
        当向某张表的某个 region 中持续写入数据,region 所承载的数据量达到一定的阈值【10G 或小于 10G 的一个动态值】,则会进行被动的 split 分割,1 个 region 分为 2 个 region 
        
表的 region 如何被 master 分配管理的?一个表的多个 region 被 master【散列】分配个 regionserver 集群进行管理
    每个 regionserver 节点可以管理不同表的 region,但是默认情况下每个 regionserver 节点最终管理的 region 的总数量是相同的【负载均衡】region 的内部结构 
    每个 region 是由 1 个 Hlog 及 1 到多个 store 组成 (每个 region 中 store 的数量 = 该表的列簇的数量,每个 store 下存储了某一个列簇下的所有的数据)      
        每个 store 是由 1 个 memstore 及 0 到多个 storefile 组成 
            memstore:写缓存,用来加快 hbase 表的写速度 
                memstore 的阈值是 128M,当 memstore 中缓存的数据量达到 128M 则会 flush 成 storeFile 文件 
            
            storefile
                由 memstore 中 flush 出    
                storefile 文件就是 hbase 表数据的存储文件 
                storefile 文件最终落地到 hdfs 上最终形成 HFile 
                
        Hlog 文件 
            每个 region 中还包含一个 Hlog 文件  
            Hlog 文件是一个预写制日志文件【WAL】写数据时默认情况下数据会先写入到对应 region 的 Hlog 中进行备份
            再将数据写入到 memstore 中 
            当数据成功写入 Hlog+memstore 后则后台判断此次写入数据成功 
            当因为 regionserver 节点宕机导致 memstore 中的数据丢失时可以从 Hlog 进行恢复 
            
            某些场景用可以配置关闭 WAL 预写机制  
            在 1.x 版本中可以配置一个 regionserver 节点对应一个 Hlog 文件(一个 regionserver 节点上所有的 region 共用一个 Hlog 文件)=》可以减少 HLog 文件的寻址次数  


    hbase 表数据在 hdfs 上的存储目录结构 
        
        /hbase/data/default  
            在各个命名空间库下包含有多个以表明命名的目录 
        /hbase/data/default/emp 
            在表目录下包含有 1 个或多个以 region 编号命名的目录(该目录下存储了该表对应 region 下的数据)region 的 name  
                可以在 60010web 平台上查看到  
                region name 的命名规则:表名 +Start Key+ 时间戳 +region 编号   
        /hbase/data/default/emp/8b1ae0ef2208947a238544b4b94ffeaa 
            在 region 编码命名得目录下会出现 1 个或多个以列簇名命名的目录 
        /hbase/data/default/emp/8b1ae0ef2208947a238544b4b94ffeaa/info1 
            在列簇名命名的目录下出现 0 到多个 storefile 文件 
            
            
            

hbase 表的读写流程

 十五章 -46 页 架构图 

组件介绍

1)client  客户端 
    hbase shell -- 交互命令行  
    Hue - web  
    MapReduce  
    hive 
    spark 
    …… 
2)zookeeper  
    监控 master 及 regionserver 的状态,保证 hbase 集群的高可用 
    持有 hbase 集群的节点信息及 meta 表的 region 的位置信息  
3)master  
    负责分配表的 region 给 regionserver  
    负责集群的负载均衡  
    读写过程没有经过 master 节点,所以 master 节点负载率通常比较低 
4)regionserver  
    regionserver 节点通常与 hdfs 的 datanode 节点部署在同一台物理机上 
    regionserver 负责管理表的 region 的节点 
    是真正相应客户端读写请求的节点(响应客户端 IO 请求的节点)5)hadoop 
    hadoop 的 hdfs 为 hbase 提供了一个数据存储平台 
    hdfs 上主要存储了 hbase 的两种文件  
        HFile  
            就是 hbase 的 StoreFile
            表数据的存储文件  
            Hfile 是 hadoop 的二进制格式文件   
        Hlog  
            预写制日志文件  
            Hlog 是 hadoop 的 sequence 格式文件 
            

hbase 表数据的读流程:(根据某个 rowkey 读取 emp 表的数据)

                
1、client 先去访问 zookeeper, 从 zookeeper 里面获取 meta 表的 region 所在的 regionserver 节点信息
                0.96 之前的版本除了 meta 表还有一个 root 表,root 表存储 meta 表位置信息,先通过 zookeeper 获取 root 表位置
    在从 root 表中读取 meta 表位置
    现在直接将 meta 表位置存入 zookeeper 中,减少会话次数
    
2、client 向 meta 表的 region 所在 regionserver 发起读请求, 读取 meta 表数据,获取 hbase 集群上所有用户表的元数据
3、根据 meta 表中 emp 表的 region 的位置信息,client 找到了当前需要访问的 emp 表对应的 region 及所在的 regionserver 服务器
4、client 向对应 regionserver 服务器发起读请求
5、regionserver 收到 client 访问请求,在当前节点上找到 emp 表的 region,并确定目标 store,先扫描 memstore(因为数据此时可能存在 memstore 并未 flush 成 storeFile),在扫描 blockcache(读缓存,近期已经读过的数据会加载到该缓冲区中),最后再读取 storefile[HDFS] 文件,6、regionserver 把数据响应给 client


            

hbase 表数据的写流程:(根据某个 rowkey 向 emp 表写数据)

                    
1、client 先去访问 zookeeper, 从 zookeeper 里面获取 meta 表的 region 所在的 regionserver 节点信息
2、client 向 meta 表的 region 所在 regionserver 发起读请求, 读取 meta 表数据,获取 hbase 集群上所有用户表的元数据
3、根据 meta 表中 emp 表的 region 的位置信息,client 找到了当前需要访问的 emp 表对应的 region 及所在的 regionserver 服务器
4、client 向对应 regionserver 服务器发起写请求   
5、regionserver 收到 client 写请求并响应,默认情况下 regionserver 先把数据写入目前 region 的 HLog 中, 防止数据丢失
6、再把数据写入到目标 store 下的 memstore 内存缓存区,memstore 内存缓存区的默认大小 128M 
    $ vi hbase-common/src/main/resources/hbase-default.xml      
    <name>hbase.hregion.memstore.flush.size</name> => 128M  
    
7、当 Hlog 和 memstore 都写入成功, 则此次数据写入成功    
8、当 memstore 内的数据量达到阀值 [128M],会把 memstore 里面的数据 Flush 成 storefile
9、当持续写入数据,导致 store 下的 storefile 越来越多, 当 store 文件数量或每间隔一段时间则会触发 compact 合并操作,hbase 会把每个 store 下的所有的 storefile 合并成一个大的单一的 storefile
10、当合并后的单个 storefiles 文件越来越大, 达到一定阀值(10G 或其他小于 10G 的动态阈值)时会触发 split 操作,region 被一分为二,并由 master 将新的 region 分配给 regionserver 节点管理 

写数据过程中发送的三大机制 flush、compaction、split

1、flush 机制

 当 memstore 内的数据量达到阀值 [128M],会把 memstore 里面的数据 Flush 成 storefile
<property>
<name>hbase.hregion.memstore.flush.size</name>
<value>134217728</value>
<description>
Memstore will be flushed to disk if size of the memstore
exceeds this number of bytes.  Value is checked by a thread that runs
every hbase.server.thread.wakefrequency.</description>
</property>
    思考:例如一个 regionserver 节点上同时管理了 100 个 region,平均每个 region 内有 2 个 memstore,则该 regionserver 需要同时维护 100*2=200 个  
        
        假如单个 memstore 内的数据量都没有达到 128M,但是都在 100M 以上,则此时所有的 memstore 内的缓存的数据量将超过  200*100M = 20G  
        
        占用的内容空间是 regionserver -jvm -heap 堆内存空间 
<property>
<name>hbase.regionserver.global.memstore.size</name>
<value></value>
<description>Maximum size of all memstores in a region server before new
    updates are blocked and flushes are forced. Defaults to 40% of heap (0.4).
    Updates are blocked and flushes are forced until size of all memstores
    in a region server hits hbase.regionserver.global.memstore.size.lower.limit.
    The default value in this configuration has been intentionally left emtpy in order to
    honor the old hbase.regionserver.global.memstore.upperLimit property if present.</description>
</property>
        默认值为 regionserver -jvm -heap 堆内存空间的 40%   
        当一个 regionserver 节点上的所有的 memstore 内缓存的数据量超过 regionserver-jvm -heap 堆内存空间的 40% 时,将会阻塞此 regionserver 节点上所有的 region 的更新操作
        
        如何配置 regionserver-jvm -heap 堆内存空间 大小 
            $ vi conf/hbase-env.sh 
            export HBASE_HEAPSIZE=1G 
            正常大小都在  4G-20G 
<property>
<name>hbase.regionserver.global.memstore.size.lower.limit</name>
<value></value>
<description>Maximum size of all memstores in a region server before flushes are forced.
    Defaults to 95% of hbase.regionserver.global.memstore.size (0.95).
    A 100% value for this value causes the minimum possible flushing to occur when updates are
    blocked due to memstore limiting.
    The default value in this configuration has been intentionally left emtpy in order to
    honor the old hbase.regionserver.global.memstore.lowerLimit property if present.</description>
</property>
        默认值为 regionserver -jvm -heap 堆内存空间的 40%*0.95=38%  
        当一个 regionserver 节点上的所有的 memstore 内缓存的数据量超过 regionserver -jvm -heap 堆内存空间的 38% 时,会进行强制的 flush 操作
    

    

2、compaction 机制

    当 flush 到 store 下的 storefile 文件过多过小将影响到 hbase 后续的读效率
    hbase 后启动 compaction 合并机制,最终将每个 store 下的所有的 storeFile 文件合并为一个大的单一的 storeFile 文件 
        
    compaction 机制 分割两个合并过程
        minor compaction -- 小合并  
            系统后台会有一个专用的线程监控每个 store 下的 storeFile 文件的数量
            当数量超过 3 个时会进行小合并 
            小合并只是一个归类合并没有用扫描读取文件内的内容也没有进行排序操作 
            该过程较快并且不会消耗集群资源 
        major compaction -- 大合并 
            所有的 region 每隔 3.5 天~10.5 天之间会进行一次大合并 
            大合并过程中会加载读取一个 store 下所有的 storefile 文件并进行以下操作
                会依据 cell 中的 rowkey 值的字典顺序进行排序 
                会对打上’删除‘标签的 cell 或者过期的 cell 进行彻底的删除  
                    执行的删除 cell 的操作并没有将 cell 立即从 storeFile 文件中删除
                    只是打上一个’删除‘标签,在大合并期间 cell 才会被彻底的删除 
    <property>
        <name>hbase.hregion.majorcompaction</name>
        <value>604800000</value>
        <description>The time (in miliseconds) between 'major' compactions of all
        HStoreFiles in a region.  Default: Set to 7 days.  Major compactions tend to
        happen exactly when you need them least so enable them such that they run at
        off-peak for your deploy; or, since this setting is on a periodicity that is
        unlikely to match your loading, run the compactions via an external
        invocation out of a cron job or some such.</description>
    </property>
    <!-- 跳动系数
    最终 region 大合并间隔时间为 7 *(1-0.5) ~ 7*(1+0.5)        3.5~10.5 天 -->
    <property>
        <name>hbase.hregion.majorcompaction.jitter</name>
        <value>0.50</value>
        <description>Jitter outer bound for major compactions.
        On each regionserver, we multiply the hbase.region.majorcompaction
        interval by some random fraction that is inside the bounds of this
        maximum.  We then add this + or - product to when the next
        major compaction is to run.  The idea is that major compaction
        does happen on every regionserver at exactly the same time.  The
        smaller this number, the closer the compactions come together.</description>
    </property>
    <!-- 小合并 -->
    <property>
        <name>hbase.hstore.compactionThreshold</name>
        <value>3</value>
        <description>
        If more than this number of HStoreFiles in any one HStore
        (one HStoreFile is written per flush of memstore) then a compaction
        is run to rewrite all HStoreFiles files as one.  Larger numbers
        put off compaction but when it runs, it takes longer to complete.</description>
    </property>
    <property>
        <name>hbase.hstore.blockingStoreFiles</name>
        <value>10</value>
        <description>
        If more than this number of StoreFiles in any one Store
        (one StoreFile is written per flush of MemStore) then updates are
        blocked for this HRegion until a compaction is completed, or
        until hbase.hstore.blockingWaitTime has been exceeded.</description>
    </property>
    <property>
        <name>hbase.hstore.blockingWaitTime</name>
        <value>90000</value>
        <description>
        The time an HRegion will block updates for after hitting the StoreFile
        limit defined by hbase.hstore.blockingStoreFiles.
        After this time has elapsed, the HRegion will stop blocking updates even
        if a compaction has not been completed.</description>
    </property>
    <property>
        <name>hbase.hstore.blockingWaitTime</name>
        <value>90000</value>
        <description>
        The time an HRegion will block updates for after hitting the StoreFile
        limit defined by hbase.hstore.blockingStoreFiles.
        After this time has elapsed, the HRegion will stop blocking updates even
        if a compaction has not been completed.</description>
    </property>
    <property>
        <name>hbase.hstore.compaction.kv.max</name>
        <value>10</value>
        <description>How many KeyValues to read and then write in a batch when flushing
                or compacting.  Do less if big KeyValues and problems with OOME.
                Do more if wide, small rows.</description>
    </property>
            大合并过程会消耗大量的 hbase 集群资源(IO,cpu,内存)大合并可以看做是以短期的集群资源消耗换取以后长期的读效率的提升 

            

3、split 机制

 当大合并后的某个 region 下的某个 store 下的 storefile 文件大小达到一定的阈值,则会引起该 region 的 split 分割 

0.94 版本之前
    是一个定值
    单纯使用 hbase.hregion.max.filesize 控制的是某个 store 下 storeFile 的大小,默认是 10G 时自动 split 分割
    默认配置文件 hbase-common/src/main/resources/hbase-default.xml 
        $ echo $((10737418240/1024/1024/1024))    
    结论:对小表不友好
        数据量较小的表就有可能永远不会触发分裂,容易产生数据热点
    
0.94 版本 -1.2 版本
    由 hbase.hregion.max.filesize 和 hbase.regionserver.region.split.policy 共同控制
    split.policy 的默认值 IncreasingToUpperBoundRegionSplitPolicy 底层是根据一个公式来计算是否要 split
    公式:Min (R*R* hbase.hregion.memstore.flush.size ,“hbase.hregion.max.filesize”) 
        R 为同台 regionserver 上同一个表的 region 的个数
        hbase.hregion.memstore.flush.size 默认值是 128M
        假如有一张表 tableA,其多个 region 分布在 regionserver 集群上:如果在某一个 regionserver 上持有了 tableA 的 1 个 region,则该 regionserver 上的 tableA 的 region 触发分割时的大小 => min(10G,1*1*128M)=128M
        如果在某一个 regionserver 上持有了 tableA 的 2 个 region,则该 regionserver 上的 tableA 的 region 触发分割时的大小 => min(10G,2*2*128M)=512M
        … 3… =>:min(10G,3*3*128M)=1152M
        ……
        ……
        … 9… =>min(10G,9*9*128M= 10.125G)=>10G              
        结论:
            同一个 regionserver 节点上持有某张表的 region 数量达到 9 个时,则该表的 region 分割触发值才开始按照 hbase.hregion.max.filesize 最大值 10G 进行分割
            这种切分策略很好的弥补了 ConstantSizeRegionSplitPolicy 的短板,能够自适应大表和小表
            但是很多小表会在大集群中产生大量小 region,最终表数据在集群中过于分散
                例如节点数量为 10 个,一个表最终达到分割阈值 10G 前将会有产生 90 个 region,前期分割过频繁
            
1.2 版本 
    由 hbase.hregion.max.filesize 和 hbase.regionserver.region.split.policy 共同控制
    split.policy 默认值改为 SteppingSplitPolicy
    控制策略:某台 regionserver 上持有某个表的 region 个数为 1 个时 =》split 切分阈值为 flush size * 2
        其他情况为 hbase.hregion.max.filesize=》10G 
    结论:弥补 IncreasingToUpperBoundRegionSplitPolicy 带来的问题
        小表前期随数据量增加不会过度过多分割
            例如节点数量为 10 个,一个表最终达到分割阈值 10G 前将会有产生 10 个 region
            每台上存在 1 个 region 后,以后分割阈值即按照 10G 执行 

        
region 在分割时:消耗集群资源 
    region 在 split 时会短暂的 offline 下线导致客户端访问不稳定 
    
    
为什么在建表时表的列簇的数量不宜过多???因为一个 region 中 store 的数量等于该表的列簇的数量 
    region 的 split 分割的依据是 region 下的某个 store 下的 storeFile 文件的大小 
    如果一个 region 下有多个 store,其中一个 store 下的 storeFile 文件大小逐渐变大
    而其他的 store 下的数据量比较小
    如果数据量较大的 store 下的文件大小达到阈值则会触发整个 region 的 split 分割 
    数据量少的 store 会被迫分裂在多个 region 中,导致数据过于分散增加 hbase 对该 store 下数据的检索成本 
    
        
        
        

hbase java api

 使用 java 编程对 hbase 进行增删改查操作 

1、配置 maven 工程依赖

1)关闭 eclipse,并合并 repository 目录  
    
2)新建 maven 工程或使用之前的 maven 工程并再 pom.xml 文件中添加以下依赖 
        <!-- hadoop start -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.6.0</version>
        </dependency>
        <!-- hadoop end -->
        <!-- hbase start -->
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-server</artifactId>
            <version>1.2.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>1.2.0</version>
        </dependency>
        <!-- hbase end -->
        <!-- hive start -->
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-exec</artifactId>
            <version>1.1.0</version>
        </dependency>
3)下载 hadoop 及 hbase 的配置文件并加入到 maven 工程中 

    在 maven 工程中创建 source funder 
        src/main/resources  
    将 hadoop 及 hbase 的配置文件加入到 src/main/resources 下 

            

2、hbase java api 演示

如何通过 hbase java api 创建表、删除表、修改表

http://hbase.apache.org/book…. =》95. Examples

package com.example.hbase.admin;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HConstants;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.io.compress.Compression.Algorithm;

public class Example {

  private static final String TABLE_NAME = "MY_TABLE_NAME_TOO";
  private static final String CF_DEFAULT = "DEFAULT_COLUMN_FAMILY";

  public static void createOrOverwrite(Admin admin, HTableDescriptor table) throws IOException {if (admin.tableExists(table.getTableName())) {admin.disableTable(table.getTableName());
      admin.deleteTable(table.getTableName());
    }
    admin.createTable(table);
  }

  public static void createSchemaTables(Configuration config) throws IOException {try (Connection connection = ConnectionFactory.createConnection(config);
         Admin admin = connection.getAdmin()) {HTableDescriptor table = new HTableDescriptor(TableName.valueOf(TABLE_NAME));
      table.addFamily(new HColumnDescriptor(CF_DEFAULT).setCompressionType(Algorithm.NONE));

      System.out.print("Creating table.");
      createOrOverwrite(admin, table);
      System.out.println("Done.");
    }
  }

  public static void modifySchema (Configuration config) throws IOException {try (Connection connection = ConnectionFactory.createConnection(config);
         Admin admin = connection.getAdmin()) {TableName tableName = TableName.valueOf(TABLE_NAME);
      if (!admin.tableExists(tableName)) {System.out.println("Table does not exist.");
        System.exit(-1);
      }

      HTableDescriptor table = admin.getTableDescriptor(tableName);

      // Update existing table
      HColumnDescriptor newColumn = new HColumnDescriptor("NEWCF");
      newColumn.setCompactionCompressionType(Algorithm.GZ);
      newColumn.setMaxVersions(HConstants.ALL_VERSIONS);
      admin.addColumn(tableName, newColumn);

      // Update existing column family
      HColumnDescriptor existingColumn = new HColumnDescriptor(CF_DEFAULT);
      existingColumn.setCompactionCompressionType(Algorithm.GZ);
      existingColumn.setMaxVersions(HConstants.ALL_VERSIONS);
      table.modifyFamily(existingColumn);
      admin.modifyTable(tableName, table);

      // Disable an existing table
      admin.disableTable(tableName);

      // Delete an existing column family
      admin.deleteColumn(tableName, CF_DEFAULT.getBytes("UTF-8"));

      // Delete a table (Need to be disabled first)
      admin.deleteTable(tableName);
    }
  }

  public static void main(String... args) throws IOException {Configuration config = HBaseConfiguration.create();

    //Add any necessary configuration files (hbase-site.xml, core-site.xml)
    config.addResource(new Path(System.getenv("HBASE_CONF_DIR"), "hbase-site.xml"));
    config.addResource(new Path(System.getenv("HADOOP_CONF_DIR"), "core-site.xml"));
    createSchemaTables(config);
    modifySchema(config);
  }
}    

作业:

region 的结构及 region 相关概念  -- 简述
hbase 表数据读写流程及写过程中的三种机制  -- 简述 
hbase java api 的使用  -- 提交  
    

    
    


day3:

hbase 与 MapReduce 集成使用  

hbase 与 hive 集成使用  

hbase 与 sqoop 集成使用    

hbase 与 Hue 集成使用  





hbase 与 MapReduce 集成使用

 利用 MapReduce 并行计算框架对 hbase 表数据进行读写操作         
MapReduce 程序 
    使用 hbase 自带 mr-jar 功能包 lib/hbase-server-1.2.0-cdh5.14.2.jar,实现向 hbase 中批量的导入或统计数据  
    自定义 MapReduce 程序向 hbase 表实现读写操作 
        

        

一、使用使用 hbase 自带 MapReduce 功能 jar 包

lib/hbase-server-1.2.0-cdh5.14.2.jar              
    借助此 jar 包中的 MapReduce 程序可以实现利用 MapReduce 并行计算框架

                                    
        

1、使用自带的 MapReduce 功能 jar 包需要进行环境配置

 配置 jar 包中的 MapReduce 程序在读写 hbase 表时作为一个客户端所需要的 hbase 的 jar 包依赖 
使这些 MapReduce 程序在执行时可以在当前环境中加载读取到 hbasejar 包 

找一个固定的会话窗口执行命令

$ export HBASE_HOME=/opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2    
$ export HADOOP_HOME=/opt/cdh-5.14.2/hadoop-2.6.0-cdh5.14.2
$ bin/hbase  mapredcp  -- 返回 MapReduce 程序在读写 hbase 表数据时所需要的 hbase 的 jar 包的本地路径 


$ export HADOOP_CLASSPATH=`bin/hbase  mapredcp`
将 MapReduce 程序读写 hbase 表数据时所需要的 jar 包本地路径加入到 hadoop 的环境变量中。之后 MapReduce 在执行时会自动获取 HADOOP_CLASSPATH 的值并从中获取所需的 hbase jar 包的路径 

$ echo ${HADOOP_CLASSPATH}   验证 
            

2、测试执行 hbase 自带的 MapReduce-jar 包程序

$ /opt/cdh-5.14.2/hadoop-2.6.0-cdh5.14.2/bin/yarn jar /opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2/lib/hbase-server-1.2.0-cdh5.14.2.jar
An example program must be given as the first argument.
Valid program names are:
CellCounter: Count cells in HBase table. 统计 hbase 表 cell 详情
WALPlayer: Replay WAL files.
completebulkload: Complete a bulk data load.
copytable: Export a table from local cluster to peer cluster. 利用 MapReduce 程序实现拷贝 hbase 表
export: Write table data to HDFS. 利用 MapReduce 程序从 hbase 表中导出数据
exportsnapshot: Export the specific snapshot to a given FileSystem.
import: Import data written by Export. 利用 MapReduce 程序向 hbase 导入数据
importtsv: Import data in TSV format. 利用 MapReduce 程序向 hbase 导入 tsv 格式数据
rowcounter: Count rows in HBase table. 利用 MapReduce 程序统计行

1)利用 hbase 自带的 MapReduce 程序统计 hbase 表的行

2)利用 hbase 自带的 MapReduce 程序实现向 hbase 表中批量导入数据 — 直接导入方式


在 hbase 上创建目标表 
    > create 'student' ,'info'  
    
创建 tsv 测试文件并上传到 hdfs 上 
    $ vi student.tsv    
        10003   tom     boy     20
        10004   lili    girl    19
        10005   lio     boy     21
        10007   litao   boy     18
        10008   mary    girl    20
        
    $ bin/hdfs dfs -put student.tsv /user  
        
执行导入 MapReduce 任务 

    $ /opt/cdh-5.14.2/hadoop-2.6.0-cdh5.14.2/bin/yarn jar /opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2/lib/hbase-server-1.2.0-cdh5.14.2.jar  \
    importtsv \
    -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:sex,info:age   \
    student \
    hdfs://192.168.134.101:8020/user/student.tsv               





3)使用 bulk load 方式将一个 tsv 格式的文件导入到 hbase 表中

    
直接导入方式:regionserver 响应客户端的写请求 -》regionserver 将数据写入 Hlog-》写入 memstore 中 =》从 memstore 从 flush 成 storeFile 文件 -》compaction 合并
    
    
bulk load 方式导入:先使用 MapReduce 程序将到导入的 tsv 文件直接转化为最终的 storeFile 文件并存储到 hdfs 上的某个目录下 =》将最终的 storeFile 文件写入(移动)到目标表的 store 下
    
    
使用 bulk load 方式导入的好处:bulk load 方式导入可以避开直接导入数据时的 hbase 集群的资源消耗(内存、io、cpu)(避开了数据先写入 hlog-》memstore-》flush 等),将 tsv 文件转化为 storeFile 文件的工作压力转移给 MapReduce 分布式实现,最终 hbase 只需将转化后的 storeFile 文件移动写入到目标表中 


            
            
创建新的目标表 
        > create 'student1','info'


        
过程 1:文件格式转化(将 tsv 文件转化为 storeFile 文件)执行转化文件格式任务     
        -Dimporttsv.bulk.output=/path/for/output  在直接导入方式基础上次参数则当前 MapReduce 任务将会把要导入到 hbase 表中的 tsv 文件转换为 Hfile 文件,而不是直接写入到 hbase 表 
        /path/for/output 为由 MapReduce 转化后的 Hfile 文件在 hdfs 上的存储路径 
        
        yarn jar /opt/modules/hbase-1.2.0-cdh5.14.2/lib/hbase-server-1.2.0-cdh5.14.2.jar importtsv -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:sex,info:age -Dimporttsv.bulk.output=/path/for/output student1 hdfs://centos01:8020/user/student.tsv 
        
    现象:此任务是 MapReduce 任务 
        > scan 'student1'  此时数据还未写入到 hbase 表中  
        /path/for/output/info  --- Hfile 文件  

        

过程 2:将由 MapReduce 转化好的 Hfile 文件写入(移动)到目标 region 的 store 下 

    用 completebulkload 完成 bulkload 上传

    yarn jar /opt/modules/hbase-1.2.0-cdh5.14.2/lib/hbase-server-1.2.0-cdh5.14.2.jar completebulkload /path/for/output student3


    现象:此任务不是 MapReduce 任务, 此过程由 hbase 自行完成  
        > scan 'student1'   数据已经写入 
        /path/for/output/info  --- Hfile 文件已经消失
        /hbase/data/default/student1/1b9a3a4e47cc3859a0909dc096685260/info - 出现新的文件  
        
        

二、自定义 MapReduce 程序完成读写 hbase 表数据

 需求:自定义 MapReduce 程序将 hbase 中的 student 表中的 10004 行到 10007 行之间的 info:name 和 info:age 写入到 hbase 的 user 表中 basic:XM ,basic:NL,rowkey 不变  

    
    
 ReadStudentMapper extends  TableMapper<ImmutableBytesWritable, Put> 
    如果 map 从 hbase 表中读数据则自定义的 Mapper 类需要继承 TableMapper  
    <ImmutableBytesWritable, Put>
        声明的是 map 端输出的 key 和 value 类型  
        ImmutableBytesWritable 是对字节数组的封装类并继承了 WritableComparable 类型

        
        
map(ImmutableBytesWritable key, Result value, Context context)        
    ImmutableBytesWritable key  - 是从目标表中读取到的某行数据的 rowkey 值    
    Result value  -- 是从目标表中读取到的对应行所有 cell 的封装实例 
package com.hadoop.hbase;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.hbase.mapreduce.TableMapper;
import org.apache.hadoop.hbase.mapreduce.TableReducer;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper.Context;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner;

public class Student2UserMapReduce extends Configured implements Tool {

    // Step 1 : Mapper
    public static class ReadStudentMapper extends  TableMapper<ImmutableBytesWritable, Put> {@SuppressWarnings("deprecation")
        @Override
        protected void map(ImmutableBytesWritable key, Result value,
                Context context) throws IOException, InterruptedException {

            // create put
            Put put = new Put(key.get()); // 直接引用原表中的 rowkey 作为目标表的 rowkey
            // 将 student 表中该行中的 info:name info:age 两列数据过滤数并添加 put 实例中 
            for (Cell cell : value.rawCells()) {
                // get CF:info 过滤出特定列簇因为可能有多个列簇
                if ("info".equals(Bytes.toString(CellUtil.cloneFamily(cell)))) {
                    // add name
                    if ("name".equals(Bytes.toString(CellUtil
                            .cloneQualifier(cell)))) {put.add(Bytes.toBytes("basic"), Bytes.toBytes("XM"),
                                CellUtil.cloneValue(cell));
                    }
                    // add age
                    else if ("age".equals(Bytes.toString(CellUtil
                            .cloneQualifier(cell)))) {put.add(Bytes.toBytes("basic"), Bytes.toBytes("NL"),
                                CellUtil.cloneValue(cell));
                    }
                }
            }

            // context output
            context.write(key, put);
        }
    }

    // Step 2 : Reducer

    public static class WriteUserReducer extends
            TableReducer<ImmutableBytesWritable, Put, NullWritable> {

        @Override
        protected void reduce(ImmutableBytesWritable key, Iterable<Put> values,
                Context context) throws IOException, InterruptedException {for (Put put : values) {context.write(NullWritable.get(), put);
            }

        }

    }

    // Step 3 : Driver
    public int run(String[] args) throws Exception {// 1) Configuration
        Configuration conf = this.getConf();
        // 2) create job
        Job job = Job.getInstance(conf, this.getClass().getSimpleName());
        job.setJarByClass(Student2UserMapReduce.class);

        // 3) set job
        // set scan 设置 map 端的查询条件,Scan scan = new Scan();
        scan.setStartRow(Bytes.toBytes("10004"));
        scan.setStopRow(Bytes.toBytes("10007"));
        scan.addFamily(Bytes.toBytes("info"));  // 只扫描特定的列簇
        // setMapper
        TableMapReduceUtil.initTableMapperJob(
                "student", // input table
                scan, // Scan instance
                ReadStudentMapper.class, // mapper class
                ImmutableBytesWritable.class, // mapper output key
                Put.class, // mapper output value
                job
                );

        // setReducer
        TableMapReduceUtil.initTableReducerJob(
                "user", // output table
                WriteUserReducer.class, // reducer class
                job);

        // set reduce nums
        job.setNumReduceTasks(1); // at least one, adjust as required

        boolean isSuccess = job.waitForCompletion(true);
        if (!isSuccess) {throw new IOException("error with job!");
        }
        return isSuccess ? 0 : 1;

    }

    public static void main(String[] args) throws Exception {Configuration conf = HBaseConfiguration.create();
        int status = ToolRunner.run(//
                conf, //
                new Student2UserMapReduce(), //
                args //
                );
        System.exit(status);

    }

}
 测试执行 
    在 hbase 上提前创建目标表 
         create 'user','basic'
    导出 jar 包并上传到 linux 集群并提交执行
        $ bin/yarn jar jars/s2u.jar  
    检查执行结果
        > scan 'user'   







如何为 hbase 的 master 节点配置备份节点(tar 包安装方式搭建的集群)HMaster HA

防止 master 单节点故障
    虽然 hbase 表数据的读写不经过 master,master 宕机一段时间内集群还可以正常读写,当时还是有不可或缺的作用
如何实现
    Master HA 的实现是借助于 zookeeper 基于观察者模式监控 master 状态
    一旦 active master 节点宕机后 zookeeper 会第一时间感知并从其他的多个备份 master 节点(backup-master)中选举出一个 master 作为后续的 active master 节点 
    

1、搭建 Apache Hadoop 集群并启动

$ sbin/start-dfs.sh              -- 启动 HDFS

2、搭建 zookeeper 集群并启动

$ bin/zkServer.sh start

3、部署 HBase 集群

 先在某台节点上操作,完成后再拷贝给其他节点
    $ vi conf/regionservers  // 添加 regionserver 服务器主机名或 IP
    $ vi conf/backup-masters     // 在 HABASE_HOME/conf 目录下添加 backup-masters 文件,里面定义哪些服务器是备用 master
    $ vi conf/hbase-site.xml   // 向 hbase-site.xml 中添加配置信息 
            <property>  
                <name>hbase.rootdir</name>  
                <value>hdfs://hadoop-senior01.bf.com:8020/hbase</value>
            </property>
            <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
            </property>            
            <property>
                <name>hbase.zookeeper.quorum</name>
                <value>blue01.mydomain,blue02.mydomain,blue03.mydomain</value>
            </property>
            <property>
                <name>hbase.master</name>
                <value>hdfs://192.168.134.101:60000</value>
            </property>
            
            <name>hbase.master</name>  => 声明集群中的哪台服务器作为最初的 active master 节点 
 拷贝此台 hbase 安装目录到其他两个节点:$ scp -r hbase-0.98.6-hadoop2/ blue02.mydomain:/opt/modules/
    $ scp -r hbase-0.98.6-hadoop2/ blue03.mydomain:/opt/modules/

4、启动 hbase 服务进程

$ bin/start-hbase.sh  // 在 <name>hbase.master</name> 定义的服务器上执行该命令 

5、观察每个服务器的角色

 启动 hbase 服务后,会发现除 <name>hbase.master</name> 定义的服务器上有 Hmaster 进程外
在 conf/backup-masters 内定义的服务器上也有 master 进程
active  master 默认在 <name>hbase.master</name> 定义的服务器上

6、测试
http://192.168.122.128:60010/master-status

 可以看到:Master 192.168.122.128
    Backup Masters 192.168.122.129

关闭 192.168.122.128 服务器上的 HMaster:$ kill -9 12978
可以看到
    Masters 192.168.122.129

     

hbase 与 hive 集成使用

 目的:利用 hive 的分析功能接口,使用 hql 语句分析 hbase 表中的数据 
    
hbase 本身是不支持 sql 查询语句,仅仅支持简单的 get scan 查询数据 
    聚合查询(max avg min max)、分组、联合、子查询 --- 不支持  
    
如何实现使用 sql 或类 sql 语句分析 hbase 表中数据呢?(sql on hbase)与 hive 进行集成
        在 hive 端创建一个与 hbase 表的关联映射表
        使用 hive sql 语句间接分析 hbase 表中的数据 
        hive sql =》hive-》MapReduce 程序 =》比较慢适合离线分析
    使用 phoniex 插件 
        phoniex 插件是专为 hbase 开发的一款第三方插件,Apache TM   
        通过此插件可以使用标准的 sql 语句分析 hbase 表中的数据 
        sql =》phoniex 插件 =》转化为 Get 或 Scan 查询 =》非常快可以实现实时交互查询

        

============================hbase 与 hive 集成测试 ===================



STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'   
    创建 hive 与 hbase 的管理映射表
    hive 与 hbase 之前的数据映射通信依靠的是 HBaseStorageHandler 类 
    hive-hbase-handler-1.1.0-cdh5.14.2.jar


官方部署使用参考资料:

 官方文档步骤在 hive 的官网上:https://cwiki.apache.org/confluence/display/Hive/Home#Home-UserDocumentation
    

1、hive-env.sh 中声明 HBASE_HOME 路径

hive 需要获取 hbase 的配置文件及 lib 目录下的 jar 包 

export HBASE_HOME=/opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2

2、修改 hive-site.xml

    声明 zookeeper 的地址,根据自己的集群有几个声明几个;hive 分析的数据在 hbase 里,hive 关联 hbase 需要联系 zookeeper       
<property>
    <name>hbase.zookeeper.quorum</name>
    <value>bigdata01.project.com</value>
</property>

3、测试

 在 hive 端的操作
在 hive 端执行 hql 去映射并分析 hbase 上已经存在的一张表
    

实现:HBase 中已经存储一张 student 信息表
    在 hive 创建一张与 hbase 上的 student 表的关联映射表
    使用 hql 分析 hive 端此关联表中的数据


    

1)创建外部关联映射表

 需求是使用 hql 语句去分析 hbase 中已经有了一张包含数据的表
hive 需要创建一个外部表与之映射
假如仅仅是希望使用 hql 语法分析 hbase 表的数据
    需要创建一个外部表
    在 hive 端删除此关联表时不会影响 hbase 表的数据
    
$ bin/hive --service metastore & 

CREATE EXTERNAL TABLE hive_hbase_student (
id int,
name string,
sex string,
age string
)
STORED BY ‘org.apache.hadoop.hive.hbase.HBaseStorageHandler’
WITH SERDEPROPERTIES (“hbase.columns.mapping” = “:key,info:name,info:sex,info:age”)
TBLPROPERTIES (“hbase.table.name” = “student”);

说明:

 第一个:key 是固定格式,默认为 hbase 的 rowkey,不需要指定列簇;其他字段会与 hive 表的字段顺序一一对应映射;可以只映射 hbase 表中的部分列




2)验证:

select * from hive_hbase_student ;    



总结:

 执行创建关联表时包找不到类异常说明 hive 缺少 hbase 某些 jar 包
    一般创建 hive 与 hbase 表映射表都是外部表
    因为需求通常都是使用 hql 分析 hbase 上已经有数据的表 
    在 hive 端删除映射表时 hbase 中表不会被同步删除;

思考:

 在 hive 端向关联表中中插入数据或 load 加载数据后 hbase 表中数据是否会同步更新?能否通过 hive 端间接向 hbase 中导入 / 插入数据?

测试:

1)向 hive_hbase_student 表中 load 加载数据

$ vi student01.txt // 新建测试数据
20111 tom1 boy 21
20112 lio1 boy 20

load data local inpath '/opt/cdh-5.14.2/hive-1.1.0-cdh5.14.2/student02.txt' into table hive_hbase_student ;  
报错:非本地表不能使用 load 加载数据
    不能使用 load 从本地加载数据到 hive 与 hbase 的映射表中(为非本地表)解决:先创建一个临时表,使用 load 导入本地数据到临时表中
    然后在通过 insert into 语句向关联表中插入数据
    hive 端支持 insert 语句向 hive 与 hbase 的关联表中插入数据 

    

2)向 hive_hbase_student 表中 inster 插入数据

CREATE TABLE temp3(
id int,
name string,
sex string,
age string
)
row format delimited fields terminated by ‘t’;

load data local inpath ‘/opt/cdh-5.14.2/hive-1.1.0-cdh5.14.2/student02.txt’ into table temp3 ;

insert into table hive_hbase_student select * from temp3 ;

验证:

select * from hive_hbase_student ;
scan ‘student’

结论:

 数据插入成功
可以通过 hive 作为接口向 hbase 表中插入数据 
可以通过此途径快速将 hive 表数据插入到 hbase 表  





        
    

hbase 与 sqoop 集成使用

 使用 sqoop 将 RDBMS 中的数据导入到 hbase 表中 
sqoop -》hdfs、hive、hbase   


1、修改 sqoop 的配置文件

#Set path to where bin/hadoop is available
export HADOOP_COMMON_HOME=/opt/cdh-5.14.2/hadoop-2.6.0-cdh5.14.2

#Set path to where hadoop-*-core.jar is available
export HADOOP_MAPRED_HOME=/opt/cdh-5.14.2/hadoop-2.6.0-cdh5.14.2

#set the path to where bin/hbase is available
export HBASE_HOME=/opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2

#Set the path to where bin/hive is available
export HIVE_HOME=/opt/cdh-5.14.2/hive-1.1.0-cdh5.14.2

#Set the path for where zookeper config dir is
export ZOOCFGDIR=/opt/cdh-5.14.2/zookeeper-3.4.5-cdh5.14.2

2、在 mysql 上创建一个测试表(订单表)

> create database my_db ;
> use my_db; 
将 sql 文件上传到 linux 上
> source  /opt/data/so_detail.sql ;

3、执行 sqoop 命令将订单表表数据导入到 hbase 表中

bin/sqoop import --connect jdbc:mysql://centos01:3306/mydb --username root --password 123456 --table so_detail --columns "id, product_id, price" --hbase-table "sqoop" --hbase-create-table --column-family "info" --hbase-row-key "id" --num-mappers 1
HBase arguments:
   --column-family <family>    Sets the target column family for the
                               import
   --hbase-bulkload            Enables HBase bulk loading
   --hbase-create-table        If specified, create missing HBase tables
   --hbase-row-key <col>       Specifies which input column to use as the
                               row key
   --hbase-table <table>       Import to <table> in HBase

Caused by: java.lang.ClassNotFoundException: org.json.JSONObject

 将 java-json.jar 包上传到 sqoop 的 lib 目录下 




hbase 与 Hue 集成使用

 通过 hue 的 web 平台实现对 hbase 表数据的增删改查操作 

    

1、启动 hbase 的 thrift server 服务进程

hue 需要通过 hbase 的 thrift server 进行底层的信息交互 
$ bin/hbase-daemon.sh start thrift 


2、修改 hue 的配置文件

$ vi desktop/conf/hue.ini  

    1241 行 
  # If using Kerberos we assume GSSAPI SASL, not PLAIN.
  hbase_clusters=(Cluster|192.168.134.101:9090)

  # HBase configuration directory, where hbase-site.xml is located.
  hbase_conf_dir=/opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2/conf    

启动 hue server 

针对表的操作 
    删除表 
    创建表 
    启动或禁用表 
针对表数据的操作 
    查看表数据 
        筛选查看 
        排序查看 
    删除 cell 或添加 cell 
    修改 cell 值 
    删除行或添加行 
    加载数据  



            
    
    








    

hbase 表的设计

表的预分区的设计

    
默认建表时不进行预分区则表的 region 只有 1 个,并且该 region 没有 start 和 end key,后续向该表中写数据时无论 rowkey 如何设定则数据都会写入到该表的唯一的 region 中 , 该 region 持有的数据量达到一定的阈值则会被动 split 分割。此过程中会有另个问题出现
    1、在 region 没有 split 之前只有 regionserver 节点在响应客户得读写请求(数据热点、倾斜产生)数据热点、倾斜 =》某时刻大量的读写操作都集中在 hbase 集群上某 1 台或几台 regionserver 节点上
    2、region 的被动 split 分割会消耗集群的资源,并且会短暂的 offline 下线,导致 region 访问不稳定

如何解决 
    在创建表对表进行预分区操作,将表直接生成多个 region,并且指定每个 region 的 key 的范围   
    
    

创建表预分区的方式 1:

create ‘t11’, ‘info1′, SPLITS => [’10’, ’20’, ’30’, ’40’]

Name    Region Server    Start Key    End Key    Locality    Requests
ns1:t11,,1557480097230.eb7d269860267eb22376c716f6e68864.    centos01:60030        10    0.0    0
ns1:t11,10,1557480097230.268f79be12cd6a1f3307138180ed092e.    centos01:60030    10    20    0.0    0
ns1:t11,20,1557480097230.c1b7ba5c4b5be9f01511d624bfde39fc.    centos01:60030    20    30    0.0    0
ns1:t11,30,1557480097230.c3f164315567ab636f264601edc058f4.    centos01:60030    30    40    0.0    0
ns1:t11,40,1557480097230.2f8719d1b3c38f8ec83eec51921acd5a.    centos01:60030    40        0.0    0

插入查看效果

put ‘ns1:t11’, ‘2502’, ‘f1:age’, ’25’ –> region3

结论:前缀匹配、左闭右开

创建表预分区的方式 2:
$ vi splits.txt
create ‘t12’, ‘info1’, SPLITS_FILE => ‘/opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2/splits.txt’

表的 rowkey 的设计

hbase 表数据的读写默认都是基于 rowkey(hbase 的二次索引)hbase 表的数据最终都是以 rowkey 的字典顺序排序存储  
一张 hbase 的表的 rowkey 的设计好坏直接影响到后续对此表的读写效率  


举例说明 
    有一张 t11,建表时已经进行预分区  
    有一批 1 千万条的数据需要插入到 t11 表中   
    1 千万条的数据的 rowkey 设计:rowkey= 时间戳_2 位随机数字 
            1544085846_26  xxx  xx  xx   
            1544085999_33  xxx  xx  xx  
            1544087902_62  xxx  xx  xx  
            ……  
    结果:根据 rowkey 与 region 的 key 的前缀匹配结果数据都会写入到 region02 
        会出现数据热点及被动的 split 分割问题 
        
    如何解决 
        rowkey 设计 
            两位随机数字 (00-50)_时间戳
            散列的分布式的插入到每一个 region 中  
            
            

rowkey 设计原则 
    rowkey 必须唯一  
    rowkey 的长度官方建议 10-100 字节之间,实际使用 rowkey 的长度 不超过 16 字节 
        rowkey 值、列簇、列名存在与每一个 cell 单元格中   
        rowkey 过大的影响
            浪费存储空间 
            将会导致索引数据变大,影响到 hbase 表的读写效率 
    rowkey 设计时要考虑集群在读写数据时避免数据热点产生, 不建议全部使用随机数字
    最重要 rowkey 的设计要考虑实际的业务场景  
    
rowkey 设计时可以选择的思路 
    生成随机数  
        固定长度的随机数字(crc32/md5)通常不会将 rowkey 全部使用随机数,会拼接一些与业务需求相关的数据 

    与业务需求相关的数据 + 固定长度的随机数字 
        例如:日期(业务需求相关的数据)_固定长度的随机数字  
            
        订单数据的 rowkey 设计 
            ……
            2018101012_r4      55.0    4354664        2       
            2018111012_ry      55.0    4354664        2       
            2018111115_uu      55.0    4354664        2   
            2018111709_ii      55.0    4354664        2   
            2018120311_hu      55.0    4354664        2                   
            ……  
            
        可以根据客户提供的日期范围快速查询到自己的订单或消费或话单数据等  
        
            客户要查询自己在 11 月份期间的订单数据
            
                Scan san = new Scan () ; 
                scan.setStaryKey(20181111);
                scan.setStopKey(20181112);
            
    翻转字符串  
        假如业务需要将一组连续的数字作为 rowkey  
            连续的数字的特点 
                低位变化快高位变化慢  
                比如时间戳、日期  
            
            翻转前的 rowkey 
                1544085846  
                1544085999  
                1544087902   
                …… 
                                    
            

电信公司用户话单记录表的 rowkey 设计案例

 表的数据量非常大     
    每天新增话单记录 160 亿条  
        
业务需求:要求客户可以根据自己提供的电话号码及时间范围快速查询自己的话单记录信息 
    如果为所有用户的话单记录表设计 rowkey?思路:每个用户的话单记录存在一个 hbase 的一个大表中  
        个人查询的话单记录信息量比较少(1 个人 1 个月的话单记录 600 条),而 hbase 大表的数据量 160 亿条 *365 天  
            希望每个客户的话单记录在 hbase 大表中连续存储(尽量存储在同一个 region 中)还是散列在多个 region 中存储呢?为了减少 regionserver 节点的响应次数,减少 regionserver 节点检索数据时的会话及检索次数
        需要将用户的数据尽可能连续存储在同一个 region 中
        如果要查询 100 亿条数据,最好是散列存储以便分布式查询  
        
        又因为需求中需要以用户提供的日期范围查询话单记录,rowkey 中需要包含日期数据以便进行前缀匹配查询  
        
    rowkey 最终设计 
        电话号码_日期_随机数字 
            电话号码 =》在前可以保证每个用户的话单记录在 hbase 表中连续存储 
            日期 =》放中间可以满足用户根据提供的日期范围匹配查询  
            随机数字 =》为了避免 rowkey 重复 
            

13600000000_20180519_34 xx xx xx xx
13600000000_20180621_55 xx xx xx xx
13600000000_20180621_30 xx xx xx xx
13600000000_20180621_39 xx xx xx xx
13600000000_20180626_36 xx xx xx xx
13600000000_20180629_34 xx xx xx xx
13600000000_20180711_34 xx xx xx xx
13600000000_20180719_34 xx xx xx xx
13600000000_20180819_34 xx xx xx xx




    例如电话号码为 13600000000 用户要求查询自己在 6 月份的话单记录 
    
    例如电话号码为 13600000000 用户要求查询自己在 6 月 21 号的话单记录 

    
    

hbase 表的属性(列簇的属性)

{
NAME => ‘info1’, 列簇名称
BLOOMFILTER => ‘ROW’, 过滤器类型
VERSIONS => ‘1’, 该列簇下的 cell 最大可保留版本数量
KEEP_DELETED_CELLS => ‘FALSE’, 打上删除标签的 cell 在大合并被彻底删除前可以被访问,FALSE 不可以
DATA_BLOCK_ENCODING => ‘NONE’, 数据块的编码方式
TTL => ‘FOREVER’, 数据存活期,该列簇下的数据的有效期,到期的 cell 和被打上删除标签的 cell 会在大合并期间彻底删除
COMPRESSION => ‘NONE’, 针对该列簇下的 Hfile 文件的压缩格式
MIN_VERSIONS => ‘0’, cell 中最少保留版本数量
BLOCKSIZE => ‘65536’(字节),

Hfile 文件中数据块的默认大小,默认大小是 64kb,不同的业务需求场景需要设置不同的数据块大小以提高读性能减少延迟率 
    对于以 Get 读(某一行内)为主的业务场景 =》适当减小数据块的默认大小
    对于以 Scan 读(大范围读取)为主的业务场景 =》适当增大数据块的默认大小    
请描述下 Hfile 文件中的数据块的相关概念及结构?????hfile 的 block 块




REPLICATION_SCOPE => ‘0’
BLOCKCACHE => ‘true’,

 读缓存  
如果该列簇的 BLOCKCACHE 属性的值为 true,则该列簇下的 storeFile 文件中的数据在被读取后可以进入到该读缓存中,目的是为了加快下次读取同样数据时的速度 

IN_MEMORY => ‘false’,

 blockcache 中的三个分区:single、multi、inmemory
读缓存中的激进内存
表示在 blockcache 读缓存中享有较高的等级 
如果一个列簇的 IN_MEMORY 属性值为 true,则该列簇下的数据会被持久加载到 blockcache 读缓存区中的 In-memory 区中    
desc 'hbase:meta'   meta 元数据表的该属性值默认为 true   

}

COMPRESSION 压缩

 是针对某个表某个列簇下的 Hfile 文件进行的压缩配置 
默认支持的压缩格式有 
    Block Compressors
        none  -- 默认  
        Snappy
        LZO
        LZ4
        GZ
企业中最常使用的压缩格式为 Snappy 压缩 
    在各种压缩格式中 Snappy 压缩的编码和解码的综合效率是最高的,对 cpu 消耗最小的 
配置 Hfile 文件的压缩好处:节省 hdfs 的存储空间
    节省磁盘 io 及网络 io  

如何为 hbase 的表数据文件 Hfile 文件配置 Snappy 压缩

1)因为 hbase 的数据最终是存储在 hadoop 上,所以需要先确保 hadoop 支持压缩

$ bin/hadoop checknative // 检查 Hadoop 支持的压缩
/opt/modules/hadoop-2.5.0-cdh5.3.6/lib/native  //hadoop 的压缩依靠 native 包的支持
    

2)检查当前 hbase 是否可以引用 Hadoop 的压缩格式

$ bin/hbase --config conf/ org.apache.hadoop.util.NativeLibraryChecker
    //http://hbase.apache.org/book.html   搜索 NativeLi 

3)配置 hbase 支持 Snappy 压缩

    配置 hbase 可以引用 hadoop 的 native 库
    

下载 hadoop-snappy-0.0.1-SNAPSHOT.jar 包,上传并放入 $HBASE_HOME/lib 下
$ export HBASE_HOME=/opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2
$ export HADOOP_HOME=/opt/cdh-5.14.2/hadoop-2.6.0-cdh5.14.2
$ mkdir $HBASE_HOME/lib/native
$ ln -s $HADOOP_HOME/lib/native $HBASE_HOME/lib/native/Linux-amd64-64

 将 Hadoop 的 native 包创建链接到 hbase 的 native 下并命名为 Linux-amd64-64
其实 hbase 的 native 使用的就是 Hadoop 的 native 包

4)重启服务进程

 重启 hadoop 及 hbase 服务进程 


5)使用压缩
create ‘t13’ ,{NAME => ‘f1′, VERSIONS => 5,COMPRESSION=>’SNAPPY’} // 如果报错考虑 Hadoop 进程是否刚才替换 native 后重启过
put ‘t13′,’1001′,’f1:name’,’zhangsan’
flush ‘t13’

BLOCKCACHE 读缓存


总结每个 regionserver 节点需要维护的内存空间 
    memstore  
        写缓存,加快写速度  
        每个 regionserver 节点上需要维护多少个 memstore 空间 =》n 个  
        当个 memstore 的空间的阈值 =》128M  
        整个 regionserver 节点上的总的 memstore 的空间的默认阈值 =》regionserver-jvm-heap 空间的 40% 
                
    blockcache
        读缓存,用来加快读速度 
        每个 regionserver 节点上需要维护多少个 blockcache 空间 =》1 个  
        单个 regionserver 节点上的 blockcache 的缓存空间的阈值 
             <name>hfile.block.cache.size</name> => 40%   
  <property>
    <name>hfile.block.cache.size</name>
    <value>0.4</value>
    <description>Percentage of maximum heap (-Xmx setting) to allocate to block cache
        used by HFile/StoreFile. Default of 0.4 means allocate 40%.
        Set to 0 to disable but it's not recommended; you need at least
        enough cache to hold the storefile indices.</description>
  </property>
            blockcache 空间的最大值为 regionserver-jvm-heap 空间的 40%   
            
    加入 blockcache 读缓存后的读数据流程
        向目标 region 下的 对应的 store 下的 memstore 中扫描数据
        再到 blockcache 中扫描数据  
        最终到 storefile 中读取数据 
        如果该列簇的 BLOCKCACHE 属性值为 true,则读取的数据会被加载到 blockcache  

根据读写要求可以设置 memstore 和 blockcache 的大小,若注重读,可将 blockcache 设大些,若注重写,可将 memstore 设大些,总之 blockcache+memstore 要 <=80%
        
LRU 缓存淘汰机制(近期最少使用算法)为了保证 blockcache 读缓存空间的高效使用 
        blockcache 空间中的 single 区和 multi 区实行 LRU 缓存淘汰机制 
        当整个 blockcache 读缓存空间被占用量达到 85% 时才会开始 LRU 缓存淘汰
            
        
blockcache 读缓存空间的分区分级  
保护各个区安全、相互不受影响
    single 区  
        默认大小为 blockcache_size*25% 
        当某个列簇下的 storeFile 文件中的某些 block 块进行被第一次读取则该块中的 cell 会被加载到 blockcache 的此 single 区中  
        此缓存区域中的数据参与 LRU 缓存淘汰机制
    multi 区 
        默认大小为 blockcache_size*50% 
        当数据近期被多次读取则会被加载到 multi 区中 
        此缓存区域中的数据参与 LRU 缓存淘汰机制
    在整个 blockcache 空间占到 85% 时,对 single、multi 采取 LRU 机制
    in-memory 区 
        默认大小为 blockcache_size*25% 
        当某个列簇下的 IN_MEMORY => 'true',则该列簇下的数据会持久加载到 blockcache 的 in-memory 区 中,并且不会参与 LRU 缓存淘汰 
        可以将一些重要的或读取频率非常高的列簇标记为 true 
        in-memory 区等级最高
        不可以随便将某些列簇此属性标记为 true,否则会影响到 meta 元数据表的读写效率 
    

        

compaction 机制

    当 flush 到 store 下的 storefile 文件过多过小将影响到 hbase 后续的读效率
    hbase 后启动 compaction 合并机制,最终将每个 store 下的所有的 storeFile 文件合并为一个大的单一的 storeFile 文件 
        
    compaction 机制 分割两个合并过程
        minor compaction -- 小合并  
            系统后台会有一个专用的线程监控每个 store 下的 storeFile 文件的数量
            当数量超过 3 个时会进行小合并 
            小合并只是一个归类合并没有用扫描读取文件内的内容也没有进行排序操作 
            该过程较快并且不会消耗集群资源 
        major compaction -- 大合并 
            所有的 region 每隔 3.5 天~10.5 天之间会进行一次大合并 
            大合并过程中会加载读取一个 store 下所有的 storefile 文件并进行以下操作
                会依据 cell 中的 rowkey 值的字典顺序进行排序 
                会对打上’删除‘标签的 cell 或者过期的 cell 进行彻底的删除  
                    执行的删除 cell 的操作并没有将 cell 立即从 storeFile 文件中删除
                    只是打上一个’删除‘标签,在大合并期间 cell 才会被彻底的删除
                    
            大合并过程会消耗大量的 hbase 集群资源(IO,cpu,内存)大合并可以看做是以短期的集群资源消耗换取以后长期的读效率的提升 

    compaction 机制相关的属性配置 
    
        大合并 
            <name>hbase.hregion.majorcompaction</name>  
            <value>604800000</value>
                region 进行大合并的间隔时间为 7 天  
                
            <name>hbase.hregion.majorcompaction.jitter</name>
            <value>0.50</value>                    
                默认值为 0.5,是一个浮动值  
                最终同一个 regionserver 节点上 region 的大合并间隔时间为 
                    7*(1-0.5)天~ 7*(1+0.5)天 
                    3.5 天~10.5 天  
                    
            <name>hbase.hstore.compactionThreshold</name>
            <value>3</value>                        
            

            
                    

hbase 表的管理命令

hbase 的一些表管理的 hbase shell 命令  

flush 操作     
  hbase> flush 'TABLENAME'  将某张表下所有的 region 中的 memstore 中的数据 flush 成 storeFile 文件
  hbase> flush 'REGIONNAME'  将某个 region 中的 memstore 中的数据 flush 成 storeFile 文件
  hbase> flush 'ENCODED_REGIONNAME'  将某个 region 中的 memstore 中的数据 flush 成 storeFile 文件

compaction 操作 
    compact  小合并 
    storefile 个数 >3 时自动合并  
    
    major_compact        大合并        
            Examples:
            Compact all regions in a table:
            hbase> major_compact 't1'
            hbase> major_compact 'ns1:t1'
            Compact an entire region:
            hbase> major_compact 'r1'
            Compact a single column family within a region:
            hbase> major_compact 'r1', 'c1'
            Compact a single column family within a table:
            hbase> major_compact 't1', 'c1'  
        
split 操作 
    

Examples:

split 'tableName'
split 'namespace:tableName'
split 'regionName' # format: 'tableName,startKey,id'
split 'tableName', 'splitKey'
split 'regionName', 'splitKey' 

> split "sqoop"  
    当一个表的 region 下的 store 下的 storeFile 文件大小小于一个 block_size(64kb)时将不能被 split 分割 
    
其他操作

> move 'ENCODED_REGIONNAME'  
> move 'ENCODED_REGIONNAME', 'SERVER_NAME'        
    将一个 region 移动到其他的 regionserver 节点上 
        
    
> balancer  查看当前 hbase 集群的 负载均衡策略是否开启,true 表示开启 
> balance_switch   false   关闭负载均衡 


> close_region 'REGIONNAME'
> close_region 'REGIONNAME', 'SERVER_NAME'
> close_region 'ENCODED_REGIONNAME'
> close_region 'ENCODED_REGIONNAME', 'SERVER_NAME'        
    
                                
……  


什么情况下需要进行 region 的手动管理操作

            
更换 regionserver 节点服务器时  
    先对此台节点上的所有的 region 进行 flush,再使用 move 将 region 移动到其他 regionserver 节点上 
针对写入及读取比较频繁的业务场景  
    写入数据过程中可能会发生大合并及 split 机制,可能会影响到 hbase 集群的稳定性 
        region 的 split 过程会消耗集群资源并且对应的 region 还会短暂的 offline 下线
        大合并过程短时间内会消耗大量的集群资源  
    如何解决
        需要将被动的大合并及 split 机制关闭
        改成定时的用户访问底峰时段进行  
        
    如何关闭大合并及 split 的自动(被动)机制           
        大合并 
            <name>hbase.hregion.majorcompaction</name> =》0  
        split 
             <name>hbase.regionserver.region.split.policy</name> =》DisabledRegionSplitPolicy  
             <name>hbase.hregion.max.filesize</name> =>1000G 
             
    如果人为控制在访问底峰时段定时进行大合并及 split  
        将 hbase shell 命令转化 linux shell 命令  
        再将 linux shell 命令  定义到一个 shell 脚本中 
        在使用 crontab 定时执行 shell 脚本  
        
        
    $ echo "hbase shell 命令" | bin/hbase shell -n     
    $ echo "create't15','info' "  |  bin/hbase shell -n        
        
#!/bin/sh
# HBASE_HOME 
HBASE_HOME=/opt/cdh-5.14.2/hbase-1.2.0-cdh5.14.2 
/bin/echo "hbase shell 命令"     |  ${HBASE_HOME}/bin/hbase shell -n                     

HBase 调优

hbase 场景的调优思路

【针对客户端的查询】

 主要是体现在 hbase java API 中

1)批量写和读

table.put(Put)
table.put(List<Put>) --- 批量的写入 

table.get(Get) 
table.get(List<Get>)  --- 批量的读数据     

2)多线程多并发读写

3)客户端手动缓存查询结果

scan.setCacheBlocks(true); -- 可以将扫描读到的结果数据缓存到 blockcache 中  

4)关闭 table 释放资源

table.close()  
    

【针对服务端 hbase 集群资源及表的设计】

1)合理设置预分区及 Rowkey 设计

 根据实际的需求场景对表的预分区与 rowkey 的设计综合考虑  
    建议 regiond 的数量 =regionserver 节点数量 *2
rowkey 的长度小于 16 字节  
列簇名及列名都尽可能短小 

2)控制自动 splitmajorcompact 改为手动的访问底峰时段进行

 针对写入同时查询比较频繁的在线业务场景        
    

3)合理设置列簇的最大支持版本数和存活期

 在满足业务需求的前提下尽可能设置少的版本数及短的存活期 
    

4)合理设置 BlockCache 缓存策略(setCaching)

    可以将一些重要的或读取频率非常高用户表的某些列簇的 in-memory 属性值标记为 true      
    

5)设置 RegionServer 处理客户端 IO 请求的线程数

    <name>hbase.regionserver.handler.count</name>
    <value>30</value>
30=> 100 左右     
    

6)合理配置 BlockCache 和 memstore 的可以占用的 regionserver-jvm-heap 空间的阈值

    针对写数据为主的业务场景  
        将一个 regionserver 节点上所有的 memstore 可占用的 regionserver-jvm-heap 空间的最大值由 40% =》60% 
        将一个 regionserver 节点上的 blockcache 可占用的 regionserver-jvm-heap 空间的最大值由 40% =》20%
    针对读数据为主的业务场景 
        将一个 regionserver 节点上所有的 memstore 可占用的 regionserver-jvm-heap 空间的最大值由 40% =》20% 
        将一个 regionserver 节点上的 blockcache 可占用的 regionserver-jvm-heap 空间的最大值由 40% =》60%      
        

7)WAL 预写日志机制设置

 可以将数据写入到 Hlog 的机制关闭  
适合写入的数据量较多并且数据运行丢失的业务场景(用户行为日志数据)

8)合理使用 Compression 压缩

 合理使用压缩
    节省 hdfs 的存储空间
    节省网络和磁盘 io

bhase shell =》表属性 {COMPRESSION => 'SNAPPY'}        

        
    
        
        
    
    
    
        
        
        
        
    
        
        
        
        
        
        
        
        









退出移动版