要资料 文章 文库 视频 Code iProcess 课程 认证 咨询 工具 讲座吧   专家招募  
会员   
 
  
每天15篇文章
不仅获得谋生技能
更可以追随信仰
 
 
     
   
分享到
大数据分析与列数据库
 

作者: 江志伟,发布于2013-2-1 ,来源:InfoQ

 

近年来随着数据量的激增,对于数据分析的需求也日益迫切,传统的RDBMS已经远远不能满足企业对大数据分析的需求,虽然很多厂商都声称自己具有列数据库的特性,但是绝大多数都不具备处理真正大数据的能力,在今年8月份,Google 在VLDB 2012大会上发表了<< Processing a Trillion Cells per Mouse Click>>论文[1],展示了Google新的大数据分析技术PowerDrill, 本文将借用这篇论文的实验数据,结合笔者的上一篇Hadoop文件格式[2]的内容介绍更多大数据分析中列数据库的核心原理, 希望读者能对列数据库的原理有更多了解,也希望对将来Hadoop在针对数据分析方面能够有更多优化, 并对一些忽悠的厂商和空喊口号的技术有辨别能力。

列文件格式和压缩

在常见的列数据库技术中,一个总是被混淆的概念是面向列储存和面向列的压缩(Column storage and Columnar compression, 见参考资料[3]) , 面向列储存指的是将同类数据放在一起,这类数据在物理磁盘和物理内存上表现为连续空间,也就是我们熟称的”将不同列分开放”(这个描述并不准确但是更容易理解), 而面向列的压缩是指将不同的数据以更小的代价存放在磁盘或内存中,它往往包括非常高效的编码和解码技术(Encoding and Decoding) , 比如Run Length Encoding , BitVector Encoding ,真正的列数据库中会包括与这些压缩格式相对应的延迟物化技术(later Materialization), 高效的压缩格式和延迟物化特性是真正列数据库和伪列数据库之间查询性能和集群吞吐能力的最主要差别.

高效压缩之Run length Encoding

Run length Encoding将同一列的连续数据压缩成它的实际数值和这个数值出现的连续次数,比如AAABBBBBCCCCCCC 这样一个包含15条数据的某列数值,run length encoding 会将它压缩成一个三元数组(实际值,起始位置,个数),比如上面的数值会压缩成[A,1,3][B,4,5][C,8,7]的格式, 从而使原始的数据无论在磁盘还是内存中都可以占用更少的空间,由于run length encoding 的特性,数据往往需要重新排序从而得到更好的结果,在实际生产环境中,性别,年龄,城市等选择性非常高的列往往都是run length encoding处理的对象.在列数据库中数据往往会经过多层排序,比如第一层排序为性别,第二层排序为年龄,第三层排序为城市, 即使那些本来选择性不算高的列,在排序之后的小范围区间内也可能使类似的记录满足run length encoding 的压缩条件,从而使记录更加适合压缩.

高效压缩之Bit-Vector Encoding

Bit-vector encoding 是数据仓库中最常用的优化手段,行数据库中使用的一般为bitmap index, 它一般只针对单个列而且是额外的存储结构,列数据库中的bit-vector encoding 主要针对数据本身而且含有较少的唯一值才进行编码,在这种编码中,会先储存所有出现过的值,然后使用bit 数字1来表示实际这个数值是否出现在列中,其他bit位用0来表示. 比如某个chunk的数值为:

A A C C D D A B E

Bit-Vector encoding会使用ABCDE这样的字典来储存实际的值,然后使用:

110000100 : 对应bit-string 值A

000000010 : 对应bit-string 值B

001100000 : 对应bit-string 值C

000011000 : 对应bit-string 值D

000000001 : 对应bit-string 值E

在上面的例子中,每一个bit-string 的值没有为8的倍数,所以后面的bit位就被浪费掉了.当唯一值越多,需要编码的数值越多,则整个向量空间越稀疏并且消耗就越大,这是行数据库中bitmap index 低效且不可伸缩的关键因素(包括Hive 0.8 引入的bitmap index也是如此). 在列数据库中,因每一部分数据块单独存放(PowerDrill 假设一个数据块大概存放2千万条记录), 并且每个数据块都只维护自己的少量唯一值,所以Bit-Vector encoding所消耗的空间无论是磁盘还是内存都极少并且不会有伸缩方面的问题. 在处理Bit-Vector encoding 的计算时,比如对应上面例子某个查询需要知道字符串为B的个数时,只需要将bit-string B进行位操作即可得到, 这比普通的hashmap 计数器的计算方式会快上几个数量级. Bit-Vector Encoding 一般并不要求数据本身排序,但是近来有研究表明不管是对数据表的列顺序还是列顺序一定情况下行数据的重新排序都会使Bit-Vector Encoding使用更少的磁盘和内存空间[6][7]. Google PowerDrill通过实验证明对行数据重新排序会对查询性能有1.2倍到2.8倍的提升,并且内存比不排序的情况下消耗更少.

Trie Encoding

Trie数据结构一般也叫prefix trees, 一般用在数据类型为string并且排序之后有明显倾斜的数据分布的列,比如URL , 家庭住址, 这些字段的前缀经过排序之后在局部区域往往都有很高的压缩比,在最近的Hbase 里面也使用了这种方式压缩rowKey 的部分,Google PowerDrill也同时使用Trie Encoding压缩由”字典表”和”字典表所在位置”所组成的文件格式及其对应的内存数据结构.

其他编码方式和压缩

编码和解码不同于压缩,编码和解码一般针对特殊数据和特殊的类型,一般消耗的CPU也远远小于压缩所消耗的CPU,更多时候需要对数据重新排序才能取得更好的压缩比,这种排序既包括列的选择性高低也包括在局部地区重新调整行的顺序. 除了上面提到的Power Drill 常使用的Run length Encoding , Bit-vector encoding ,Trie Encoding 之外, 常见的编码还包括:

  • 针对字符或文本的”Dictionary Encoding”:比如email 地址, 家庭地址. 这种编码一般不需要排序,主要为了节省储存空间和少量内存空间,对查询处理时间有所提升.
  • 针对固定间隔类型数据的”Delta Encoding” : 比如日期,时间,时间戳和等间距长的数据类型,一般不需要排序,针对特殊应用,比如定时输出数据的监控系统(主机负载,网络流量等),这种编码无论磁盘还是内存的压缩率都极高,并且对应查询处理时间也有明显提升.
  • 有时候为了编码会将两个或多个字段进行组合,使用Trie Encoding 或者”变长间隔编码”进行处理,这些编码只在非常特殊的数据类型或者数据倾斜下使用,有时候只减少磁盘空间而对查询时间没有提升,甚至使用不当会增加CPU解码的负担而提升效果较小.

Run length Encoding和Bit-Vector Encoding一般对某些列压缩会减少储存3-4个数量级,对内存提升也有2-3个数量级,Dictionary Encoding和Trie Encoding一般对磁盘空间减少大概20倍,对内存空间大概减少5倍,根据Google PowerDrill的实验,在常见的聚合查询中这些特殊的编码方式会对查询速度一般有2-3个数量级不等的提升.

上面描述的只是最简单的情况,实际生产环境中要比这复杂的多,run length encoding , Bit-Vector Encoding 和Dictionary Encoding在何时使用的情况比较好判断,有些其他的编码方式则会出现时间和空间转换比率的权衡问题,比如run length encoding对于连续出现次数小于几十以下的情况提升就不明显,还有Dictionary Encoding在建立字典表的时候对于重复次数小于多少次的字符串就不储存在字典表中,以免压缩比率提升不大反而解压缩的消耗反而大增.至于具体的阈值怎么取舍,根据不同的集群硬件情况,数据分布情况,需要作出不同的调整.

压缩对编程语言垃圾回收也非常有提升,因为在物理内存上更加连续,使得gc 的处理时间缩短, 操作系统page cahe 换入换出更快,具体可以查看参考资料[3]

压缩往往是针对原始二进制数据,对不同数据类型的提升差别不大,生产系统中一般同时使用编码解码和压缩. 常用的压缩算法包括gzip,bzip,LZO,snappy 等,在Google PowerDrill 的实验中,对已经使用特殊编码和解码的数据继续压缩对内存和处理效率已经提升不大,甚至有可能为了减少内存空间而增加查询处理的延迟,google权衡考虑cpu的消耗,内存提升效率,解压缩的速度而使用了一个修改版的LZO 压缩算法, 并称相比较已经编码和解码的数据,修改版的LZO压缩还能提高1.4倍到2倍的磁盘空间和10%的内存空间,同时解压缩速度比google开源的snappy要快。 为了避免对应的查询处理延迟问题,Google同时使用一个2层缓存,将更加常用的热点数据不压缩只编码,将较少使用的温热数据压缩,为了保证缓存的有效利用,根据不同的数据访问频次会在2层缓存中交换以节省内存消耗.

Skip List数据结构

在主要以查询为主的数据仓库中,某些列的唯一值会远远多余其他列,比如性别,年龄,城市,商品类别,这些唯一值更少的列往往会作为查询的过滤条件,所以最早的C-Store论文[8]提出Projections的概念,将那些经常作为过滤条件并且可以过滤掉大部分值的列作为排序字段,这些字段以不同的组合组成不同的先后顺序,比如一种Projections以性别为第一排序字段,城市为第二排序字段,这在那些主要关注性别和城市的查询时候会过滤掉大部分的数据,对于那些关注年龄和商品类别的查询,可以创建另外一个以年龄为第一排序字段,商品类别为第二排序字段的Projections. 完全从磁盘和内存压缩的角度来讲,以选择性高低为排序顺序一般会得到最大压缩比,但是查询并不一定用到这些高压缩比的字段,所以选择Projections 的排序字段一般会选择那些唯一值较少但是又经常作为过滤条件的字段.根据Google 的实际生产系统经验,那些经常过滤的字段一般业务人员很容易通过领域知识得出,所以只需要按照这些过滤字段的选择性排序即可. 作为C-Store的商业版本Vertica 可以使用实际的线上生产系统的负载来帮助用户选择更加合适的高效过滤字段组成Projections,从而避免因选择不当而造成系统资源浪费.

Google PowerDrill论文中习惯性叫Projections的排序字段为”组合范围分区”(composite range partitions),这不同于常见的RDBMS中的分区,首先,RDBMS的分区主要有范围分区,值分区,哈希分区或前面三种的组合,RDBMS分区主要为了性能的提升和数据管理的简化(比如分区索引,分区删除,修复和备份),这种分区往往都是物理上进行切分,列数据库中的Projections主要是为了压缩效率,查询性能和提高系统的吞吐能力,使用高级压缩功能可以使磁盘容纳更多数据,更少的内存代表系统可以同时执行更多的查询,并且Projections的分区并不是物理分区而仅仅是逻辑分区,在一个集群的每台机器上都可以存放多个数据块,比如PowerDrill中的每块数据含有2千万条数据, 这样系统可以实时的加载数据因为数据会平分到多个数据块(类似于Hbase 里面的Distributed Log Split原理),对于RDBMS的物理分区来说,数据加载往往会落到一个或少数几个热点的分区导致这些分区的数据不能实时的加载. 除了性能,集群吞吐和加载速度,具有Projections概念的列数据库还具有Join操作的优化,高可用性,随意伸缩性,容易恢复等特点,如果读者感兴趣可以参考2005年的C-Store论文[8]

除了Google PowerDrill使用的这种Projections过滤数据,多年来也有多种RDBMS使用不同的方式过滤数据,比如Netezza , Oracle 11g 的PAX 样式的文件格式(HIVE里面的RCFile原理类似,如果RCFile有过滤功能也会一样),在一个小块里面的同一列往往聚合在一起(一个数据块一般4M-8M大小不等),然后提供最大值最小值来判断查询条件,这种文件格式不能使用上面提到的高级压缩功能,然后过滤效果比较低效(大部分原因在于不重新排序),同时因为过滤数据低效所以缓存使用率不高,另外一种为BrighHouse(开源版本为InfoBright),Google Dremel , (IBM 的CIF[9]如果有的话也会是这个原理) 文件格式为列的数据块放在连续空间,每个数据块为1M并且头部带有当前数据的最大最小值,这种格式同样因为不具备多重排序而过滤效果一般,当查询只含有一个过滤条件时,过滤效果只会比Projections的排序效率略差(它是范围判断,不是唯一值判断),但是当查询含有2个或2个以上过滤条件时,这些过滤条件会组成大量的”可能需要扫描字段”从而导致过滤效果低下,进而导致缓存使用效果低下,单个查询效率低下和集群吞吐下降.

所以Projections的Skip List数据结构对比其他类似数据格式的数据过滤功能主要有以下好处:

  1. 过滤效果最好,尤其是多个过滤条件下的过滤效果.
  2. 它能根据实际的生产系统的负载调节过滤的字段,从而进一步提高实际环境中的过滤效果.PowerDrill会使用生产系统的统计数据将经常访问的列和那些列中经常读取的数据块分割在两个子区间中,一个放在内存,一个放在磁盘.
  3. 根据PowerDrill的实验结果,Skip List平均会过滤掉92.41%的数据,这部分过滤掉的数据对单个查询的影响并不是主要因素,但是对整个集群的吞吐能力却有非常大的提升.
  4. 它是在大数据块的连续磁盘空间上进行过滤,避免了磁盘随机读取的高延迟消耗.
  5. 数据是随机分割进某一区域块的,避免了少数几个区域在数据实时装载,查询,负载平衡的过程中形成热点区域.
  6. 它的大小与延迟物化的性能有关系.

延迟物化(later materialization)

在2006年的” Integrating Compression and Execution in ColumnOriented Database Systems” 论文中,描述了如何直接在已经编码的数据上不解码直接进行操作,每个不同的encoding的处理方式都不太一样,这里介绍Dictionary Encoding的方式: 在数据排序之后将所有出现的字符写入一个前缀的字典表,然后在实际的数值上用字典表中的数字代替,比如”家用电器电饭煲”代表1(假设为16个bit的short类型),”手机数码数码相机”代表2. 在计算这些商品销售的个数的时候,查询引擎只是简单的将字典代号中的个数相加, 这与使用hashmap或类似数据结构的处理方式完全不同,假设使用hashmap处理,会首先判断”家用电器电饭煲”这个元素在不在hashmap中,如果在则将其对应的计数器加一,如果不在则将这个元素放入hashmap中,然后将这个元素对应的计数器赋值为1.根据PowerDrill的实验数据,即使将所有的数据都放入内存中,主要由于延迟物化的特性,PowerDrill也会比行处理速度或者Dremel的处理速度快上2到3个数量级.

延迟物化能极大的提升处理速度的原因在于它是缓存感知的(Cache Conscious),在处理单个chunk的数据时(一个chunk一般包含几万到几十万不等的同类型单元数值),所有的数据都是在CPU L2 Cache里面的,不会产生cpu cache miss的情况,这与hashmap的处理方式完全不同,hashmap大多数情况无法将所有元素放入CPU L2 Cache中(现在cpu 的L2 cache 大小一般为128K-256K),导致cpu cache miss非常高.另外由于chunk的数据大部分都是排序过的,所以实际的计数操作会更快.

为了实现延迟物化,必须对单个chunk的大小有所限制,所以对应的skip list数据结构必须尽量平分所有的chunk块,由于所有数据本身已经是经过平分的,所以这一点不难做到(相对于物理分区当遇到数据倾斜的情况chunk大小就无法保证了), 最大的chunk所包含的单元值不能超过CPU L2 Cache的值,比如CPU L2 Cache的大小是256K.如果你的前缀字典压缩表使用的是Integer类型表示实际数值,那么单个chunk包含的单元值个数最好不要超过5W个,如果数据块中某一列的唯一值个数不超过65536个,那么一般使用2个byte大小的short 类型来表示前缀压缩字典表中的实际数值,单个chunk的大小就最好不要超过10W个. 不同的encoding会有不同的要求,但是总体原则是不能超过L2 Cache的大小.

这里描述的是最简单的延迟物化, 对于不同的encoding和decoding, 延迟物化都需要有对应的API接口,对应不同的操作类型比如sum,count,avg也需要有对应的API接口 ,所以延迟物化的实现都很复杂, 当数据不能使用对应的延迟物化特性时,查询引擎必须先将数据解码才能完成计算,这种情况一般发生在使用UDF或者需要同另外一个没有对应encoding的表做join的情况下. 如果延迟物化在一个查询的全部过程中都可以使用,一般的解码动作会发生在执行计划的最后一步,对于中间步骤比如group by,union,join数据会一直保持编码的格式,从而减少内存的需求和提升查询的速度.

对Hadoop的影响

目前的大数据分析hadoop已经成为了事实上的工业标准,列数据库的相关研究无疑会对未来hadoop的各个方面产生重大影响.比如未来的硬件会以更大容量的机械磁盘为主,SSD不会对需要扫描大量数据的查询分析有任何帮助,更大的内存也会提升系统的性能和吞吐能力. 在笔者的上一篇文章中已经提到的hadoop中真正的列文件格式[1]应该具有的特性,目前最好的列文件格式是正在开发中的Trevni [11]. 文件格式对目前NameNode和JobTracker/ResourceManager的内存瓶颈也会有极大的帮助.Trevni 的说明书上[12]写着希望Trevni的block size为1GB, 在未来如果实现了skip list数据结构,Trevni的block size会更大.这会帮助目前的NameNode至少将内存的需求降低一个数量级以上,并且集群的吞吐能力和计算能力都会得到非常大的提升.最近公布的Cloudera Impala 和Apache Drill 作为Google Dremel项目的克隆都受到了极大的关注,不久的未来Trevni会作为高性能的文件格式集成进hadoop生态圈中. 同时目前最为接近Google PowerDrill 目标的开源项目则是Spark和Shark, 一个由UC Berkeley实验室开发的开源项目[4][5],它拥有不同于map reduce的执行引擎和一个主要基于内存的计算模型,在不久前发布的版本中,Shark已经具备一个放在JVM堆外的内存列数据结构,这比目前Hive或者Java MapReduce所使用的内存数据结构要小的多,目前Berkeley和Yahoo的开发人员还在开发内存中的列压缩数据结构,这会进一步减少内存的占用空间和gc时间,也为未来实现延迟物化奠定基础,更多信息可以参考[13][14].有兴趣的同学不妨多关注这几个项目.

相关文章 相关文档 相关视频



我们该如何设计数据库
数据库设计经验谈
数据库设计过程
数据库编程总结
数据库性能调优技巧
数据库性能调整
数据库性能优化讲座
数据库系统性能调优系列
高性能数据库设计与优化
高级数据库架构师
数据仓库和数据挖掘技术
Hadoop原理、部署与性能调优
 
分享到
 
 


MySQL索引背后的数据结构
MySQL性能调优与架构设计
SQL Server数据库备份与恢复
让数据库飞起来 10大DB2优化
oracle的临时表空间写满磁盘
数据库的跨平台设计
更多...   


并发、大容量、高性能数据库
高级数据库架构设计师
Hadoop原理与实践
Oracle 数据仓库
数据仓库和数据挖掘
Oracle数据库开发与管理


领先IT公司 android开发平台最佳实践
北京 Android开发技术进阶
某新能源领域企业 Android开发技术
某航天公司 Android、IOS应用软件开发
阿尔卡特 Linux内核驱动
艾默生 嵌入式软件架构设计
西门子 嵌入式架构设计
更多...   
 
 
 
 
 
每天2个文档/视频
扫描微信二维码订阅
订阅技术月刊
获得每月300个技术资源
 
 

关于我们 | 联系我们 | 京ICP备10020922号 京公海网安备110108001071号