在虚拟机上运行hadoop master节点和slave节点问题

LaRade 发布于 2015/04/13 18:40
阅读 1K+
收藏 0

我在一台电脑上装了两个linux虚拟机上网用NAT模式(问题可能在这儿)。

在两台虚拟机上安装分布式hadoop

ssh已经能够互相免密码登陆,hosts hostname 解析应该也没问题。

hadoop文件中的各种配置文件也修改。

在启动hadoop后发现  主节点和slave节点都已经运行各自进程。

但是在查看 Live Nodes 时 为0 ,slave节点并没有启动。

这是为什么 ,是联网问题么,slave节点的浏览器也不能访问master节点的50070界面。

主节点进程从属节点进程、

live node为0 。Browse the filesystem也不能访问。(如果是在slaves写上主节点 ,就可以访问 live node 为1 ,这显然是访问不到另一台虚拟机的原因,怎么解决,求大神)

加载中
0
abcxiong
abcxiong
你进slave节点的datanode的logs看一下,肯定是没启动报错了。有几种情况,最常见,1.配置出错,2.address已存在。3.就是重新format后datanode的版本和你重新format的namenode的版本不一样,导致datanode启动不了。   排除配置出错之后,后两种解决方法是,将你hadoop配置文件的临时目录删除,一般是在安装目录下新建的tmp目录,然后再次format,就行了。前些天就搞过这个。
L
LaRade
我在slave节点上的datanode进程已经启动了。也照你的方法重新format了好几次 。就是连不上slave的那台主机0.0。(单机为分布就可以运行)
0
奋奋
不知道你的linux是什么版本,你说的情况和我之前遇到的基本类似,可以考虑一下关闭ipv6,只使用ipv4
L
LaRade
我的linux是fedora 20 。在vmware player 运行的虚拟机。
0
李-明
李-明
问题解决了木有啊,,我也遇到了啊
返回顶部
顶部