kettle linux hadoop 一些问题
最近在写linux使用kettle的定时转换方法,碰见了很恶心的问题
原本流程是从本地读取文件到hdfs
但是一直提示无法找到hdfs位置
猜测原因是转换中的
与
这个相冲突,导致存储地址出现问题
解决方法很简单,新建个转换,将读取文件操作放在里面,最后job运行时带上这个转换就可以了
至于linux下读取存放文件路径问题,可以参考如下方法
其中一定要设置文件编码为GBK,不然文件保存到hdfs里会成乱码
最近在写linux使用kettle的定时转换方法,碰见了很恶心的问题
原本流程是从本地读取文件到hdfs
但是一直提示无法找到hdfs位置
猜测原因是转换中的
与
这个相冲突,导致存储地址出现问题
解决方法很简单,新建个转换,将读取文件操作放在里面,最后job运行时带上这个转换就可以了
至于linux下读取存放文件路径问题,可以参考如下方法
其中一定要设置文件编码为GBK,不然文件保存到hdfs里会成乱码