数据分析为什么能够打败传统的商业分析(二)

数据分析为什么能够打败传统的商业分析(二)
在上一篇文章中,我们给大家介绍了传统的商业分析模式是怎么被数据分析一步一步取代的,数据分析这种新型的分析方式使得传统的商业分析模式逐渐的走向死亡,那么数据分析和传统的商业分析中有什么优点呢?下面就由小编为大家解答一下这个问题,希望这篇文章能够给大家带来帮助。

数据分析中有计算引擎上的编译器和多样化的数据清洗。我们先来说一说计算引擎上的编译器。一般来说,新鲜的数据分析往往采用以下两种方式:预处理和分析引擎。分析引擎负责执行所需的计算,以回答关于存在于业务数据中的关键问题。而现在又出现了一个新的竞争者:分析编译器。分析编译器可以灵活地将计算部署到不同的基础设施。分析编译器的例子包括现在热门的TensorFlow,它可以将计算部署到GPU或CPU,Drill和Quasar、Analytics。但是编译器比引擎更加灵活,因为编译器可以采取数字处理的方法,并将它们转换为运行在不同的基础架构(数据库,Spark,GPU等)。理论上,编译器也可以生成工作流,其运行速度比任何采用解释器执行的引擎都要快。即使Spark一致寻求添加基本的编译组件,但是保留编译器的信号已经很明确了,并且最终可能会迭代出一个纯粹的计算引擎。与此可见,数据分析行业中东西都是不断的被取代,结果却走向更好。

然后给大家说一说多样化的数据清洗。依据英文首字母进行的缩写词会极大地增加“ETL”的工作难度和压力,会导致抽取转换装载不完整、重复和不相关。而ETL是智能化,效率和数据驱动的对立面。ETL意味着无限复制的数据,无数的延迟和高昂的费用。这通常还意味着无法回答最重要的问题。

数据分析师为了使ETL更加灵活,业界开发了多种替代方案,目前VC积极参与其中。这些解决方案的范围很广,从使ETL更容易进入Hadoop或数据仓库的高级ETL工具,到流式ETL解决方案,到利用机器学习交叉引用和重复数据删除的ETL解决方案等等。技术类别包括Dremio和Xcalar等工具,它们将ETL重新设计为提取负载转换。实质上,它们将转换一推到底并使其变得简单化,因此用户不必进行任何前期提取,加载或转换。从历史上看,ELT的发展一直很慢,但是这些下一代解决方案通过动态重塑,索引和缓存常见转换来使ELT更快速。这为您提供了传统ETL的性能,以及后期转换的灵活性。

通过上面的内容,我们不难发现数据分析行业中存在了很多的内容,这些内容就是使得数据分析行业不断进步的过程,所以,我们要顺应这个时代的发展,才能够立于不败之地。