kettle在我的本机上,本机是可以通过浏览器去访问集群上的hadoop的,使用kettle连接之前,在kettle的安装目录下的plugins\pentaho-big-data-plugin\hadoop-configurations\cdh58下的xml文件全部替换为集群中hadoop的对应配置文件,然后将节点名称改为ip,然后重启kettle,新建一个hadoop cluster,填上对应的hdfs的ip和端口号,结果如下:
真是郁闷,怎么这么不方便
kettle在我的本机上,本机是可以通过浏览器去访问集群上的hadoop的,使用kettle连接之前,在kettle的安装目录下的plugins\pentaho-big-data-plugin\hadoop-configurations\cdh58下的xml文件全部替换为集群中hadoop的对应配置文件,然后将节点名称改为ip,然后重启kettle,新建一个hadoop cluster,填上对应的hdfs的ip和端口号,结果如下:
真是郁闷,怎么这么不方便
那你还想要怎么样呢?
大佬解决了没?
可以放在plugins\pentaho-big-data-plugin\hadoop-configurations\ 的hdp下面试试,测试cluster能连上,但是运行转换又不行了。。。