如何进行spark SQL编程动手实战

如何进行spark SQL编程动手实战,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

首先创建SparkContext上下文:

如何进行spark SQL编程动手实战

接着引入隐身转换,用于把RDD转成SchemaRDD:

如何进行spark SQL编程动手实战

接下来要加载数据,这里的测试数据是user.txt文件:

我们创建好use.txt增加内容并上传到hdfs中:

如何进行spark SQL编程动手实战

hdfs命令查询:

如何进行spark SQL编程动手实战

验证数据是否加载成功:

如何进行spark SQL编程动手实战

此刻user还是一个MappedRDD:

如何进行spark SQL编程动手实战

此刻的teenagers已经隐身转换成SchemaRDD

如何进行spark SQL编程动手实战

结果:

如何进行spark SQL编程动手实战

同样使用"user.txt"的数据:

如何进行spark SQL编程动手实战

我们这次直接使用SQL查询操作:

如何进行spark SQL编程动手实战

可以发现使用DSL的使用teenagers在内部已经被隐身转换了SchemaRDD的实例

可以发现与前面那张注册Table方式的结果是一样的

看完上述内容,你们掌握如何进行spark SQL编程动手实战的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注行业资讯频道,感谢各位的阅读!