使用SAP Data Hub Developer Edition将数据写入Hadoop

SAP Data Hub Developer Editor有一个默认的Apache Hadoop安装。

使用如下的命令行启动Hadoop:

docker run -ti --publish 127.0.0.1:50070:50070 --name hdfs --hostname hdfs --net dev-net datahub run-hdfs

使用SAP Data Hub Developer Edition将数据写入Hadoop

浏览器里访问控制台:

http://localhost:50070

使用SAP Data Hub Developer Edition将数据写入Hadoop

新建一个Graph,将data Generator生成的数据写入Kafka Producer;

数据再从Kafka Consumer读取出来,输出到Write File operator里,进行持久化操作。

使用SAP Data Hub Developer Edition将数据写入Hadoop

Write File的path指向Hadoop文件夹:

使用SAP Data Hub Developer Edition将数据写入Hadoop

指定Hadoop的连接信息:

使用SAP Data Hub Developer Edition将数据写入Hadoop

运行Graph之后,在Hadoop该文件夹下看到通过Write File Operator写入的文件。

使用SAP Data Hub Developer Edition将数据写入Hadoop
使用SAP Data Hub Developer Edition将数据写入Hadoop

要获取更多Jerry的原创文章,请关注公众号"汪子熙":
使用SAP Data Hub Developer Edition将数据写入Hadoop