Hive的模式设计
一 概述
Hive看上去以及实际行为都像一个关系型数据库.用户对如表和列这类术语比较熟悉,而且Hive提供的查询语言和用户之前使用过的SQL方言非常相似.不过Hive实现和使用的方式和传统的关系型数据库是非常不同的.通常,用户视图移植关系型数据库中的模式,而事实上Hive是反模式
1 、按天划分的表
按天划分表就是一种模式,其通常会在表中加入一个时间戳,例如表名为upply_2011_01_01等等.这种每天一张表的方式在数据库领域是反模式的一种方式,但是因为实际情况下数据集增长得很快,这种方式应用还是比较广泛的.
-
-
0:jdbc:hive2://hadoopmaster:10000/> CREATE TABLE supply_2011_01_02(id int,part string,quantity int);
-
OK
-
Norows affected(1.279seconds)
-
0:jdbc:hive2://hadoopmaster:10000/> CREATE TABLE supply_2011_01_03(id int,part string,quantity int);
-
OK
-
Norows affected(0.055seconds)
-
0:jdbc:hive2://hadoopmaster:10000/> CREATE TABLE supply_2011_01_04(id int,part string,quantity int);
-
OK
-
Norows affected(0.056seconds)
-
0:jdbc:hive2://hadoopmaster:10000/>
-
0:jdbc:hive2://hadoopmaster:10000/> select part,quantity supply_2011_01_02 from supply_2011_01_02
-
..................>unionall
-
..................>selectpart,quantity supply_2011_01_02fromsupply_2011_01_03
-
..................>wherequantity<4;
-
对于Hive,这种情况下应该使用分区表.Hive通过Where子句中的表达式来选择查询所需要的指定分区,这样的查询执行效率高,而且看起来清晰明了:
-
-
0:jdbc:hive2://hadoopmaster:10000/> CREATE TABLE supplybypartition (id int,part string,quantity int)
-
..................>partitionedby(dayint);
-
0:jdbc:hive2://hadoopmaster:10000/> alter table supplybypartition add partition(day=20110102);
-
OK
-
Norows affected(0.088seconds)
-
0:jdbc:hive2://hadoopmaster:10000/> alter table supplybypartition add partition(day=20110103);
-
OK
-
Norows affected(0.067seconds)
-
0:jdbc:hive2://hadoopmaster:10000/> alter table supplybypartition add partition(day=20110104);
-
OK
-
Norows affected(0.083seconds)
-
0:jdbc:hive2://hadoopmaster:10000/> select * from supplybypartition
-
..................>whereday>=20110102andday<20110103andquantity<4;
-
OK
-
+-----------------------+-------------------------+-----------------------------+------------------------+--+
-
|supplybypartition.id|supplybypartition.part|supplybypartition.quantity|supplybypartition.day|
-
+-----------------------+-------------------------+-----------------------------+------------------------+--+
-
+-----------------------+-------------------------+-----------------------------+------------------------+--+
-
Norows selected(0.162seconds)
-
0:jdbc:hive2://hadoopmaster:10000/>
-
2 、关于分区
Hive中分区的功能是非常有用的,这是因为Hive通常要对输入进行全盘扫描,来满足查询条件,通过创建很多的分区确定可以优化一些查询,但是同时可能会对其他一些重要的查询不利:
HDFS用于设计存储数百万的大文件,而非数十亿的小文件.使用过多分区可能导致的一个问题就是会创建大量的非必须的hadoop文件和文件夹.一个分区就对应着一个包含有多个文件的文件夹.如果指定的表存在数百个分区,那么可能每天都会创建好几万个文件.如果保持这样的表很多年,那么最终就会超出NameNode对系统云数据信息的处理能力.因为NameNode必须将所有系统文件的元数据保存在内存中.虽然每个文件只需要少量字节大小的元数据(大约是150字节/文件),但是这样也会限制一个HDFS实例所能管理的文件总数的上限.而其他的文件系统,比如MapR和Amazon S3就没有这个限制.
MapReduce会将一个任务(job)转换成多个任务(task).默认情况下,每个task都是一个新的JVM实例,都需要开启和销毁的开销.对于小文件,每个文件都会对应一个task.在一些情况下,JVM开启和销毁的时间中销毁可能会比实际处理数据的时间消耗要长
因此,一个理想的分区方案不应该导致产生太多的分区和文件夹目录,并且每个目录下的文件应该足够大,应该是文件系统中块大小的若干倍.
接时间范围进行分区的一个好的策略就是按照不同的时间颗粒度来确定合适大小的数据积累量,而且安装这个时间颗粒.随着时间的推移,分区数量的增长是均匀的,而且每个分区下包含的文件大小至少是文件系统中块或块大小的数倍.
如果用户找不到好的,大小相对合适的分区方式的话,我们可以考虑使用分桶表来解决问题
3 、关于分桶表数据存储
二 事务
1、建表
-
-
hive>create table test_trancaction
-
>(user_idInt,nameString)
-
>clusteredby(user_id)into3buckets
-
>storedasorc TBLPROPERTIES('transactional'='true');
-
OK
-
Timetaken:0.813seconds
-
hive>create table test_insert_test(idint,namestring)row format delimited fields TERMINATED BY',';
-
OK
-
Timetaken:0.11seconds
-
2 、导入数据
-
-
hive>insertintotest_insert_test values(3,"ma");
-
hive>deletefromtest_insert_testwhereid=1;
-
FAILED:SemanticException[Error10294]:Attempttodoupdateordeleteusingtransaction manager that doesnotsupport these operations.
-
修改配置文件hive-site.xml
-
<!--start for trancaction -->
-
<property>
-
<name>hive.support.concurrency</name>
-
<value>true</value>
-
</property>
-
<property>
-
<name>hive.enforce.bucketing</name>
-
<value>true</value>
-
</property>
-
<property>
-
<name>hive.exec.dynamic.partition.mode</name>
-
<value>nonstrict</value>
-
</property>
-
<property>
-
<name>hive.txn.manager</name>
-
<value>org.apache.hadoop.hive.ql.lockmgr.DbTxnManager</value>
-
</property>
-
<property>
-
<name>hive.compactor.initiator.on</name>
-
<value>true</value>
-
</property>
-
<property>
-
<name>hive.compactor.worker.threads</name>
-
<value>1</value>
-
</property>
查看分桶
-
[email protected]:/usr/local/hive/conf$ hdfs dfs-ls/user/hive/warehouse/test_insert_test
-
Found3items
-
-rwxrwxr-x2hadoop supergroup62016-08-1010:39/user/hive/warehouse/test_insert_test/000000_0
-
-rwxrwxr-x2hadoop supergroup52016-08-1010:40/user/hive/warehouse/test_insert_test/000000_0_copy_1
-
-rwxrwxr-x2hadoop supergroup52016-08-1010:40/user/hive/warehouse/test_insert_test/000000_0_copy_2
-
hive>[email protected]:/usr/local/hive/conf$ hdfs dfs-ls/user/hive/warehouse/test_trancaction
-
Found3items
-
drwxr-xr-x-hadoop supergroup02016-08-1010:45/user/hive/warehouse/test_trancaction/delta_0000001_0000001_0000
-
drwxr-xr-x-hadoop supergroup02016-08-1010:46/user/hive/warehouse/test_trancaction/delta_0000002_0000002_0000
-
drwxr-xr-x-hadoop supergroup02016-08-1010:46/user/hive/warehouse/test_trancaction/delta_0000003_0000003_0000
-
hive>deletefromtest_trancactionwhereuser_id=1;
-
WARNING:Hive-on-MRisdeprecatedinHive2andmaynotbe availableinthe future versions.Considerusinga different execution engine(i.e.tez,spark)orusingHive1.Xreleases.
-
QueryID=hadoop_20160810104829_0e78e0cd-2bc9-4741-89c1-7a8d1f384682
-
Totaljobs=1
-
LaunchingJob1outof1
-
Numberof reduce tasks determined at compile time:3
-
Inorder to change the average loadfora reducer(inbytes):
-
sethive.exec.reducers.bytes.per.reducer=<number>
-
Inorder to limit the maximum number of reducers:
-
sethive.exec.reducers.max=<number>
-
Inorder toseta constant number of reducers:
-
setmapreduce.job.reduces=<number>
-
StartingJob=job_1470228460967_0010,TrackingURL=http://hadoopmaster:8088/proxy/application_1470228460967_0010/
-
KillCommand=/usr/local/hadoop/bin/hadoop job-kill job_1470228460967_0010
-
Hadoopjob informationforStage-1:number of mappers:3;number of reducers:3
-
2016-08-1010:48:36,463Stage-1map=0%,reduce=0%
-
2016-08-1010:48:41,784Stage-1map=33%,reduce=0%,CumulativeCPU0.97sec
-
2016-08-1010:48:46,913Stage-1map=67%,reduce=0%,CumulativeCPU2.0sec
-
2016-08-1010:48:48,970Stage-1map=100%,reduce=0%,CumulativeCPU3.0sec
-
2016-08-1010:48:50,020Stage-1map=100%,reduce=33%,CumulativeCPU4.1sec
-
2016-08-1010:48:54,117Stage-1map=100%,reduce=100%,CumulativeCPU5.76sec
-
MapReduceTotalcumulative CPU time:5seconds760msec
-
EndedJob=job_1470228460967_0010
-
Loadingdata to tabledefault.test_trancaction
-
MapReduceJobsLaunched:
-
Stage-Stage-1:Map:3Reduce:3CumulativeCPU:5.76sec HDFSRead:32745HDFSWrite:701SUCCESS
-
TotalMapReduceCPUTimeSpent:5seconds760msec
-
OK
-
Timetaken:26.074seconds
最后总结一下,做Hive的Transaction其实不合适,资源耗用量大,意义不大,本身hive做离线查询还是可以的.ACID支持你饶了我吧….二点 需要分桶表 需要修改hive-site.xml文件,剩余的还是很简单的.