hive字段级数据血缘实现

1.数据血缘的概念
https://zhuanlan.zhihu.com/p/133953825
就放一张效果图,可以理解为有向无环图,对于图中的Table X,还可以画出其右半边,即Table X作为来源表的情况

hive字段级数据血缘实现

2.环境准备:
开发环境:需要一台能够联外网的linux开发机。用来maven编译hive
生产环境:一台多核linux,内存32g以上
目前项目实现的效果
    将最早2015年至今的hql每日解析一次,约两万条sql语句,10线程并发解析,可以在一个小时内完成。解析成功率约95%
    前后端联调,前端展示优化中。(不关我事,只管数据部分hhh..)

3.数据血缘核心实现
    (1).http://cxy7.com/articles/2017/11/10/1510310104765.html
        利用hooks, 在hive-site.xml中配置 hive.exec.post.hooks 为 org.apache.hadoop.hive.ql.hooks.LineageLogger
        自己实现解析较为困难,可以直接用开源实现好的来做。但是也有一些解析结果不符合预期的
    (2).使用hive jdbc连接hiveserver2,编写程序并行运行sql时,在sql前加explain ,即只编译,不运行
    (3).hive-site.xml 并行编译配置 修改 hive.driver.parallel.compilation=true
    (4).https://blog.csdn.net/wotkk/article/details/74755083
        修改hive driver代码(org.apache.hadoop.hive.ql.Driver),配合(2)做到只编译而不运行mr,达到缩短运行时间的目的
        具体思路:
            通过打印堆栈( (new Exception()).printStackTrace(); )知道
                当运行sql时,hive在runInternal方法中调用complieInternal
                当只需编译sql(sql前加上explain)时,hive在compileAndRespond中调用complieInternal
            complieInternal方法末尾加上自己的逻辑:
                只需要解析形如 insert into/override table xxxx select ...这种格式的sql,对于create table xxx as select 可以前期做预处理转化为insert into ...
                拿到sql去掉前面的exlain,调用删减后的RunInternal方法(fakeRunInternal,重点只保留hooks)
            参考(1)修改LineageLogger将产生的json保存到数据库,作为下一步解点边关系的输入数据

hive字段级数据血缘实现
    4.其他工作
    (1)将不符合开源hive语法的sql进行转换(内部hive版本从老版本hive发展过来,语法松的丧心病狂)
    (2)注册hive没有的永久udf
    (3)处理链路自动化
    (4)转换成功率统计