kettle linux hadoop 一些问题

最近在写linux使用kettle的定时转换方法,碰见了很恶心的问题

原本流程是从本地读取文件到hdfs

但是一直提示无法找到hdfs位置

kettle linux hadoop 一些问题

猜测原因是转换中的

kettle linux hadoop 一些问题

这个相冲突,导致存储地址出现问题

解决方法很简单,新建个转换,将读取文件操作放在里面,最后job运行时带上这个转换就可以了

至于linux下读取存放文件路径问题,可以参考如下方法

kettle linux hadoop 一些问题

其中一定要设置文件编码为GBK,不然文件保存到hdfs里会成乱码