1、第四章 分布式数据库HBase,提纲,4.1概述4.2HBase访问接口4.3HBase数据模型4.4HBase的实现原理4.5HBase运行机制4.6 HBase应用方案4.7 HBase编程实践,4.1概述,4.1.1从BigTable说起4.1.2HBase简介4.1.3HBase与传统关系数据库的对比分析,Google云计算技术具体包括:Google分布式文件系统GFS、分布式计算编程模型MapReduce、分布式锁服务Chubby分布式数据存储系统Bigtable等。,4.1.1从BigTable说起,需要存储的数据种类繁多:Google目前向公众开放的服务很多,需要处理的数据类型也
2、非常多。包括URL、网页内容、用户的个性化设置在内的数据都是Google需要经常处理的,海量的服务请求:Google运行着目前世界上最繁忙的系统,它每时每刻处理的客户服务请求数量是现有商用数据库根本无法承受的。,挑战,Google在数据存储访问方面当时面临的挑战,BigTable设计目标,基本目标,高可用性,能确保几乎所有的情况下系统都可用,广泛的适用性,能满足系列Google产品,简单性,底层系统简单性既可减少系统出错概率,也为上层应用开发带来便利,很强的可扩展性,根据需要随时可以加入或撤销服务器,4.1.1从BigTable说起,BigTable是一个分布式数据存储系统, 起初用于解决典型
3、的互联网搜索问题,可以扩展到PB级别的数据和上千台机器,具备广泛应用性、可扩展性、高性能和高可用性等特点。BigTable在互联网搜索方面的例子:1爬虫持续不断地抓取新页面,这些页面每页一行地存储到BigTable里2 MapReduce计算作业运行在整张表上,生成索引,为网络搜索应用做准备3用户发起网络搜索请求4网络搜索应用查询建立好的索引,从BigTable得到网页5搜索结果提交给用户,目前,BigTable为谷歌旗下的搜索、地图、财经、打印、以及社交网站Orkut、视频共享网站YouTube和博客网站Blogger等业务提供技术支持。,Bigtable数据模型,Bigtable是一个分布
4、式多维映射表,表中的数据通过一个行关键字(Row Key)、一个列关键字(Column Key)以及一个时间戳(Time Stamp)进行索引 Bigtable对存储在其中的数据不做任何解析,一律看做字符串Bigtable的存储逻辑可以表示为:,(row:string, column:string, time:int64)string,Bigtable数据模型,行 Bigtable的行关键字可以是任意的字符串,但是大小不能超过64KB。Bigtable和传统的关系型数据库有很大不同,它不支持一般意义上的事务,但能保证对于行的读写操作具有原子性(Atomic) 表中数据都是根据行关键字进行排序的
5、,排序使用的是词典序。 一个典型实例,其中n.www就是一个行关键字。不直接存储网页地址而将其倒排是Bigtable的一个巧妙设计。带来两个好处 :同一地址域的网页会被存储在表中的连续位置,有利于用户查找和分析 倒排便于数据压缩,可以大幅提高压缩率,由于规模的问题,单个的大表不利于数据处理,因此Bigtable将一个表分成了多个子表,每个子表包含多个行。子表是Bigtable中数据划分和负载均衡的基本单位。,数据模型,列 Bigtable并不是简单地存储所有的列关键字,而是将其组织成所谓的列族。每个族中的一列或者多列数据都属于同一个类型(如图中,内容、锚点是不同的族)。同族的数据会被压缩在一起
6、保存 族是Bigtable中访问控制(Access Control)基本单元,也就是说访问权限的设置是在族这一级别上进行的,数据模型,时间戳 为了简化不同版本的数据管理,Bigtable目前提供了两种设置:一种是保留最近的N个不同版本,图中数据模型采取的就是这种方法,它保存最新的三个版本数据。另一种就是保留限定时间内的所有不同版本,比如可以保存最近10天的所有不同版本数据。失效的版本将会由Bigtable的垃圾回收机制自动处理,Google的很多服务比如网页检索和用户的个性化设置等都需要保存不同时间的数据,这些不同的数据版本必须通过时间戳来区分。,系统架构,Bigtable数据库主要由三个部分
7、组成:客户端程序库(Client Library),一个主服务器(Master Server)和多个子表服务器(Tablet Server)。在Bigtable中,整个数据库看成一张大表,并会划分为许多基本子表(bigtable中最小的处理单位) 。子表服务器存储实际数据,并负责处理数据的读写,并在子表过大时进行拆分。 主服务器负责将子表分配到各子表服务器、检测新增和过期的子表服务器、平衡子表服务器之间的负载、数据模式的改变(例如创建表)等。Chubby作用:1.选取并保证同一时间内只有一个主服务器(Master Server); 2.获取子表的位置信息; 3.保存Bigtable的访问控制列
8、表。,客户访问Bigtable服务时,首先要利用其库函数执行Open()操作来打开一个锁(实际上就是获取了文件目录),锁打开以后客户端就可以和子表服务器进行通信 和许多具有单个主节点分布式系统一样,客户端主要与子表服务器通信,几乎不和主服务器进行通信,这使得主服务器的负载大大降低,4.1.2HBase简介,HBase是一个高可靠、高性能、面向列、可伸缩的分布式数据库,是谷歌BigTable的开源实现,主要用来存储非结构化和半结构化的松散数据。HBase的目标是处理非常庞大的表,可以通过水平扩展的方式,利用廉价计算机集群处理由超过10亿行数据和数百万列元素组成的数据表,Hadoop生态系统中HB
9、ase与其他部分的关系,Hadoop,4.1.2HBase简介,关系数据库已经流行很多年,为什么需要HBase?传统通用关系型数据库无法应对在数据规模剧增时导致的系统扩展性和性能问题传统关系数据库在数据结构变化时一般需要停机维护;空列浪费存储空间因此,出现了一类面向半结构化数据存储和访问的高可扩展、低写入/查询延迟的系统HBase。目前,HBase已经成功应用于互联网服务领域和传统行业的众多在线式数据分析处理系统中。,4.1.3HBase与传统关系数据库的对比分析,HBase与传统的关系数据库的区别主要体现在以下几个方面:(1)数据类型:关系数据库具有丰富的数据类型和存储方式,HBase则采用
10、了更加简单的数据模型,它把数据存储为未经解释的字符串。(2)数据操作:关系数据库中包含了丰富的操作,其中会涉及复杂的多表连接。HBase操作则不存在复杂的表与表之间的关系,只有简单的插入、查询、删除、清空等,因为HBase在设计上就避免了复杂的表和表之间的关系。(3)存储模式:关系数据库是基于行模式存储的。HBase是基于列存储的,每个列族都由几个文件保存,不同列族的文件是分离的。,4.1.3HBase与传统关系数据库的对比分析,(4)数据索引:关系数据库通常可以针对不同列构建复杂的多个索引,以提高数据访问性能。HBase只有一个索引行键(5)数据维护:在关系数据库中,更新操作会用最新的当前值
11、去替换记录中原来的旧值,旧值被覆盖后就不会存在。而在HBase中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留(6)可伸缩性:关系数据库水平扩展空间有限。相反,HBase就是为了实现灵活的水平扩展而开发的,能够轻易地通过在集群中增加或者减少硬件数量来实现性能的伸缩,4.2HBase访问接口,HBase访问接口,4.3HBase数据模型,4.3.1数据模型概述4.3.2数据模型相关概念4.3.3数据坐标4.3.4概念视图4.3.5物理视图4.3.6面向列的存储,4.3.1数据模型概述,HBase是一个稀疏、多维度、排序的映射表,这张表的索引是行键、列族、列限定符
12、和时间戳每个值是一个未经解释的字符串,没有数据类型用户在表中存储数据,每一行都有一个可排序的行键和任意多的列表在水平方向由一个或者多个列族组成,一个列族中可以包含任意多个列,同一个列族里面的数据存储在一起列族支持动态扩展,可以很轻松地添加一个列族或列,无需预先定义列的数量以及类型,所有列均以字符串形式存储,用户需要自行进行数据类型转换HBase中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留(这是和HDFS只允许追加不允许修改的特性相关的),4.3.2数据模型相关概念,表:HBase采用表来组织数据,表由行和列组成,列划分为若干个列族行:每个HBase表都由若
13、干行组成,每个行由行键(row key)来标识。列族:一个HBase表被分组成许多“列族”(Column Family)的集合,它是基本的访问控制单元列限定符:列族里的数据通过列限定符(或列)来定位单元格:在HBase表中,通过行、列族和列限定符确定一个“单元格”(cell),单元格中存储的数据没有数据类型,总被视为字节数组byte时间戳:每个单元格都保存着同一份数据的多个版本,这些版本采用时间戳进行索引,4.3.3数据坐标,HBase中需要根据行键、列族、列限定符和时间戳来确定一个单元格,因此,可以视为一个“四维坐标”,即行键, 列族, 列限定符, 时间戳,4.3.4逻辑视图,HBase数据
14、的逻辑视图,4.3.5物理视图,HBase数据的物理视图:基于列的存储,列族contents,列族anchor,4.3.6面向列的存储,行式数据库和列式数据库示意图,4.3.6面向列的存储,行式存储结构和列式存储结构,4.4HBase的实现原理,4.4.1HBase功能组件4.4.2表和Region4.4.3Region的定位,4.4.1HBase功能组件,HBase的实现包括三个主要的功能组件:(1)库函数:链接到每个客户端(2)一个Master主服务器(3)许多个Region服务器主服务器Master负责管理和维护HBase表的分区信息,维护Region服务器列表,分配Region,负载均
15、衡Region服务器负责存储和维护分配给自己的Region,处理来自客户端的读写请求客户端并不是直接从Master主服务器上读取数据,而是在获得Region的存储位置信息后,直接从Region服务器上读取数据客户端并不依赖Master,而是通过Zookeeper来获得Region位置信息,大多数客户端甚至从来不和Master通信,这种设计方式使得Master负载很小,4.4.2表和Region,一个HBase表被划分成多个Region,一个Region会分裂成多个新的Region,开始只有一个Region,后来不断分裂Region拆分操作非常快,接近瞬间,因为拆分之后的Region读取的仍然是
16、原存储文件,直到“合并”过程把存储文件异步地写到独立的文件之后,才会读取新文件,4.4.2表和Region,图4-7 不同的Region可以分布在不同的Region服务器上,每个Region默认大小是100MB到200MB(2006年以前的硬件配置)每个Region的最佳大小取决于单台服务器的有效处理能力目前每个Region最佳大小建议1GB-2GB(2013年以后的硬件配置)同一个Region不会被分拆到多个Region服务器每个Region服务器存储10-1000个Region,4.4.3Region的定位,HBase的三层结构,元数据表,又名.META.表,存储了Region和Regio
17、n服务器的映射关系 当HBase表很大时, .META.表也会被分裂成多个Region根数据表,又名-ROOT-表,记录所有元数据的具体位置 -ROOT-表只有唯一一个Region,名字是在程序中被写死的 Zookeeper文件记录了-ROOT-表的位置,4.4.3Region的定位,HBase的三层结构中各层次的名称和作用,4.4.3Region的定位,客户端访问数据时的“三级寻址”为了加速寻址,客户端会缓存位置信息,同时,需要解决缓存失效问题寻址过程客户端只需要询问Zookeeper服务器,不需要连接Master服务器,4.4.3Region的定位,为了加快访问速度,.META.表的全部R
18、egion都会被保存在内存中。 假设.META.表的每行(一个映射条目)在内存中大约占用1KB,并且每个Region限制为128MB,那么,上面的三层结构可以保存的用户数据表的Region数目是:(-ROOT-表能够寻址的.META.表的Region个数)(每个.META.表的 Region可以寻址的用户数据表的Region个数) 一个-ROOT-表最多只能有一个Region,也就是最多只能有128MB,按照每行(一个映射条目)占用1KB内存计算,128MB空间可以容纳128MB/1KB=217行,也就是说,一个-ROOT-表可以寻址217个.META.表的Region。同理,每个.META.
19、表的 Region可以寻址的用户数据表的Region个数是128MB/1KB=217。最终,三层结构可以保存的Region数目是(128MB/1KB) (128MB/1KB) = 234个Region,4.5HBase运行机制,4.5.1HBase系统架构4.5.2Region服务器工作原理4.5.3Store工作原理4.5.4HLog工作原理,4.5.1HBase系统架构,HBase的系统架构,1. 客户端客户端包含访问HBase的接口,同时在缓存中维护着已经访问过的Region位置信息,用来加快后续数据访问过程2. Zookeeper服务器Zookeeper可以帮助选举出一个Master作
20、为集群的总管,并保证在任何时刻总有唯一一个Master在运行,同时避免Master的“单点失效”问题,3. Master主服务器Master主要负责表和Region的管理工作:管理用户对表的增加、删除、修改、查询等操作实现不同Region服务器之间的负载均衡在Region分裂或合并后,负责重新调整Region的分布对发生故障失效的Region服务器上的Region进行迁移4. Region服务器Region服务器是HBase中最核心的模块,负责维护分配给自己的Region,并响应用户的读写请求,4.5.1HBase系统架构,Zookeeper是一个很好的集群管理工具,被大量用于分布式计算,提供
21、配置维护、域名服务、分布式同步、组服务等。,4.5.2Region服务器工作原理,Region服务器向HDFS文件系统中读写数据,1. 用户读写数据过程,2. 缓存的刷新,3. StoreFile的合并,4.5.2Region服务器工作原理,1. 用户读写数据过程,用户写入数据时,被分配到相应Region服务器去执行用户数据首先被写入到MemStore和Hlog中只有当操作写入Hlog之后,commit()调用才会将其返回给客户端当用户读取数据时,Region服务器会首先访问MemStore缓存,如果找不到,再去磁盘上面的StoreFile中寻找,4.5.2Region服务器工作原理,2. 缓
22、存的刷新,系统会周期性地把MemStore缓存里的内容刷写到磁盘的StoreFile文件中,清空缓存,并在Hlog里面写入一个标记每次刷写都生成一个新的StoreFile文件,因此,每个Store包含多个StoreFile文件每个Region服务器都有一个自己的HLog 文件,每次启动都检查该文件,确认最近一次执行缓存刷新操作之后是否发生新的写入操作;如果发现更新,则先写入MemStore,再刷写到StoreFile,最后删除旧的Hlog文件,开始为用户提供服务,4.5.2Region服务器工作原理,3. StoreFile的合并,每次刷写都生成一个新的StoreFile,数量太多,影响查找速
23、度调用Spact()把多个合并成一个合并操作比较耗费资源,只有数量达到一个阈值才启动合并,4.5.3Store工作原理,StoreFile的合并和分裂过程,Store是Region服务器的核心多个StoreFile合并成一个单个StoreFile过大时,又触发分裂操作,1个父Region被分裂成两个子Region,4.5.4HLog工作原理,分布式环境必须要考虑系统出错。HBase采用HLog保证系统恢复HBase系统为每个Region服务器配置了一个HLog文件,它是一种预写式日志(Write Ahead Log)用户更新数据必须首先写入日志后,才能写入MemStore缓存,并且,直到Mem
24、Store缓存内容对应的日志已经写入磁盘,该缓存内容才能被刷写到磁盘,4.5.4HLog工作原理,Zookeeper会实时监测每个Region服务器的状态,当某个Region服务器发生故障时,Zookeeper会通知MasterMaster首先会处理该故障Region服务器上面遗留的HLog文件,这个遗留的HLog文件中包含了来自多个Region对象的日志记录系统会根据每条日志记录所属的Region对象对HLog数据进行拆分,分别放到相应Region对象的目录下,然后,再将失效的Region重新分配到可用的Region服务器中,并把与该Region对象相关的HLog日志记录也发送给相应的Reg
25、ion服务器Region服务器领取到分配给自己的Region对象以及与之相关的HLog日志记录以后,会重新做一遍日志记录中的各种操作,把日志记录中的数据写入到MemStore缓存中,然后,刷新到磁盘的StoreFile文件中,完成数据恢复共用日志优点:提高对表的写操作性能;缺点:恢复时需要分拆日志,4.6 HBase访问方式,Native Java API最常规和高效的访问方式HBase ShellHBase的命令行工具,最简单的接口,适合HBase管理使用;Thrift Gateway利用Thrift序列化技术,支持C+,PHP,Python等多种语言,适合其他异构系统在线访问HBase表数
26、据REST Gateway支持REST 风格的Http API访问HBase, 解除了语言限制MapReduce直接使用MapReduce作业处理Hbase数据使用Pig/hive处理Hbase数据,HBase Java API概述,Hbase是用Java语言编写的,支持Java编程是自然而然的事情支持CRUD操作:Create, Read, Update, DeleteJava API包含Hbase shell支持的所有功能,甚至更多Java API是访问Hbase最快的方式,Java API程序设计步骤,步骤1:创建一个Configuration对象包含各种配置信息例如:Configura
27、tion conf = HbaseConfiguration.create();步骤2:构建一个HTable句柄提供Configuration对象提供待访问Table的名称例如:HTable table = new HTable(conf, tableName);步骤3:执行相应的操作执行put、get、delete、scan等操作例如:table.getTableName();步骤4:关闭HTable句柄将内存数据刷新到磁盘上释放各种资源例如:table.close();,程序示例,框架程序,4.7 HBase编程实践,4.7.1 HBase的安装与配置4.7.2HBase常用Shell命令
28、4.7.3HBase常用Java API及应用实例,4.7.1 HBase的安装与配置,1. HBase安装,下载安装包hbase-1.1.2-bin.tar.gz解压安装包hbase-1.1.2-bin.tar.gz至路径 /usr/local配置系统环境,将hbase下的bin目录添加到系统的path中,2. HBase配置,HBase有三种运行模式,单机模式、伪分布式模式、分布式模式。以下先决条件很重要,比如没有配置JAVA_HOME环境变量,就会报错。 JDK Hadoop( 单机模式不需要,伪分布式模式和分布式模式需要) SSH,备注:安装完Hadoop时,只包含HDFS和MapRe
29、duce等核心组件,并不包含HBase,因此,HBase需要单独安装,启动关闭Hadoop和HBase的顺序一定是:启动Hadoop启动HBase关闭HBase关闭Hadoop,HBASE_MANAGES_ZK=true,由HBase管理Zookeeper,否则启动独立的Zookeeper.建议:单机版HBase,使用自带Zookeeper;集群安装HBase则采用单独Zookeeper集群,4.7.2 HBase常用Shell命令,Shell命令帮助,查询数据库状态,hbase(main):024:0status 3 servers, 0 dead,1.0000 average load,查
30、询数据库版本,hbase(main):025:0version 0.90.4, r1150278,Sun Jul 24 15:53:29 PDT 2011,4.7.2 HBase常用Shell命令,4.7.2 HBase常用Shell命令,create:创建表list:列出HBase中所有的表信息,例子1:创建一个表,该表名称为tempTable,包含3个列族f1,f2和f3(1)利用命令create创建表tempTable,表中有f1,f2,f3三个列族(2)利用list列出Hbase中所有的表信息,4.7.2HBase常用Shell命令,put:向表、行、列指定的单元格添加数据 一次只能为
31、一个表的一行数据的一个列添加一个数据 scan:浏览表的相关信息,例子2:继续向表tempTable中的第r1行、第“f1:c1”列,添加数据值为“hello,dblab”(1)利用put命令向表tempTalble,行r1,列f1:c1中插入数据(2)利用scan命令浏览表tempTable的相关信息,在添加数据时,HBase会自动为添加的数据添加一个时间戳,当然,也可以在添加数据时人工指定时间戳的值.,4.7.2HBase常用Shell命令,get:通过表名、行、列、时间戳、时间范围和版本号来获得相应单元格的值,例子3:(1)从tempTable中,获取第r1行、第“f1:c1”列的值(2
32、)从tempTable中,获取第r1行、第“f1:c3”列的值,备注:f1是列族,c1和c3都是列,从运行结果可以看出: tempTable中第r1行、第“f1:c3”列的值当前不存在,4.7.2HBase常用Shell命令,enable/disable:使表有效或无效drop:删除表,例子4:使表tempTable无效、删除该表(1)利用disable命令使表tempTable无效(2)利用drop命令删除表tempTable(3)利用list命令展示删除表tempTable后的效果,4.7.3HBase常用Java API及应用实例,HBase是Java编写的,它的原生的API也是Java
33、开发的,不过,可以使用Java或其他语言调用API来访问HBase:,首先要在工程中导入一下jar包:这里只需要导入hbase安装目录中的lib文件中的所有jar包,此处不用再导入Hadoop中的jar包,避免由于Hadoop和HBase的版本冲突引起错误。,4.7.3HBase常用Java API及应用实例,学生信息表的表结构,任务要求:创建表、插入数据、浏览数据创建一个学生信息表,用来存储学生姓名(姓名作为行键,并且假设姓名不会重复)以及考试成绩,其中,考试成绩是一个列族,分别存储了各个科目的考试成绩。逻辑视图如表所示。,需要添加的数据,import org.apache.hadoop.c
34、onf.Configuration;import org.apache.hadoop.hbase.*;import org.apache.hadoop.hbase.client.*;import org.apache.hadoop.hbase.util.Bytes;import java.io.IOException;public class Chapter4 public static Configuration configuration; public static Connection connection; public static Admin admin; public stat
35、ic void main(String args)throws IOException createTable(“student”,new String“score”); insertData(“student”,“zhangsan”,“score”,“English”,“69”); insertData(“student”,“zhangsan”,“score”,“Math”,“86”); insertData(“student”,“zhangsan”,“score”,“Computer”,“77”); getData(“student”, “zhangsan”, “score”, “Engl
36、ish”); public static void init()/建立连接public static void close()/关闭连接public static void createTable()/创建表public static void insertData() /插入数据public static void getData/浏览数据,4.7.3HBase常用Java API及应用实例,建立连接,/建立连接 public static void init() configuration = HBaseConfiguration.create(); configuration.set(h
37、base.rootdir,hdfs:/localhost:9000/hbase); try connection = ConnectionFactory.createConnection(configuration); admin = connection.getAdmin(); catch (IOException e) e.printStackTrace(); ,/*创建表*/ /* * param myTableName 表名 * param colFamily列族数组 * throws Exception */public static void createTable(String
38、myTableName,String colFamily) throws IOException TableName tableName = TableName.valueOf(myTableName); if(admin.tableExists(tableName) System.out.println(table exists!); else HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName); for(String str: colFamily) HColumnDescriptor hColumnDesc
39、riptor = new HColumnDescriptor(str); hTableDescriptor.addFamily(hColumnDescriptor); admin.createTable(hTableDescriptor); ,在运行程序时,需要指定参数myTableName为“student”,colFamily为“score”程序的运行效果与如下HBase Shell命令等效:create student, score,建表,添加数据,/*添加数据*/* * param tableName 表名 * param rowKey 行键 * param colFamily 列族
40、* param col 列限定符 * param val 数据 * throws Exception */ public static void insertData(String tableName, String rowKey, String colFamily, String col, String val) throws IOException Table table = connection.getTable(TableName.valueOf(tableName); Put put = new Put(Bytes.toBytes(rowkey); put.addColumn(Byt
41、es.toBytes(colFamily), Bytes.toBytes(col), Bytes.toBytes(val); table.put(put); table.close();,4.7.3 HBase常用Java API及应用实例,添加数据时,需要分别设置参数myTableName、rowkey、colFamily、col、val的值,然后运行上述代码例如添加第一行数据时,为insertData()方法指定相应参数,并运行如下3行代码:,insertData(student,zhangsan,score,English,69);insertData(student,zhangsan,
42、score,Math,86);insertData(student,zhangsan,score,Computer,77);,上述代码与如下HBase Shell命令等效:,put student,zhangsan,score:English,69;put student,zhangsan,score:Math,86;put student,zhangsan,score:Computer,77;,4.7.3HBase常用Java API及应用实例,浏览数据,/*获取某单元格数据*/* * param tableName 表名 * param rowKey 行键 * param colFamil
43、y 列族 * param col 列限定符 * throws IOException */ public static void getData(String tableName,String rowKey,String colFamily,String col)throws IOException Table table = connection.getTable(TableName.valueOf(tableName); Get get = new Get(Bytes.toBytes(rowkey);get.addColumn(Bytes.toBytes(colFamily),Bytes.
44、toBytes(col); /获取的result数据是结果集,还需要格式化输出想要的数据才行 Result result = table.get(get); System.out.println(new String(result.getValue(colFamily.getBytes(),col=null?null:col.getBytes(); table.close();,4.7.3HBase常用Java API及应用实例,比如,现在要获取姓名为“zhangsan”在“English”上的数据,就可以在运行上述代码时,指定参数tableName为“student”、rowKey为“zha
45、ngsan”、colFamily为“score”、col为“English”。getData(student, zhangsan, score, English);上述代码与如下HBase Shell命令等效:,get student,zhangsan,COLUMN=score:English”,4.7.3HBase常用Java API及应用实例,/关闭连接 public static void close() try if(admin != null) admin.close(); if(null != connection) connection.close(); catch (IOExc
46、eption e) e.printStackTrace(); ,关闭连接,本章小结,HBase数据库的知识。HBase数据库是BigTable的开源实现,和BigTable一样,支持大规模海量数据,分布式并发数据处理效率极高,易于扩展且支持动态伸缩,适用于廉价设备。HBase可以支持Native Java API、HBase Shell、Thrift Gateway、REST Gateway、Pig、Hive等多种访问接口,可以根据具体应用选择访问方式。HBase实际上就是一个稀疏、多维、持久化存储的映射表,它采用行键、列键和时间戳进行索引,每个值都是未经解释的字符串。HBase采用分区存储,一个大的表会被分拆许多个Region,这些Region会被分发到不同的服务器上实现分布式存储。HBase的系统架构包括客户端、Zookeeper服务器、Master主服务器、Region服务器。客户端包含访问HBase的接口;Zookeeper服务器负责提供稳定可靠的协同服务;Master主服务器主要负责表和Region的管理工作;Region服务器负责维护分配给自己的Region,并响应用户的读写请求。HBase运行机制和编程实践的知识。,