hdfs dfs -mkdir -p /mydir不能创建空白文件夹

BluesMao 发布于 2015/09/21 12:04
阅读 2K+
收藏 0

hadoop正常启动了,但是出现下面的结果:

SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/zkpk/hadoop-2.5.2/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/zkpk/hbase-0.98.14-hadoop2/lib/slf4j-log4j12-1.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
15/09/20 20:29:58 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

其中两java包有冲突,删掉hbase-0.98.14-hadoop2/lib/slf4j-log4j12-1.6.4.jar就好了。找不到创建的空白文件夹,是那个警告的原因吗,还是?

加载中
0
寻梦2012
寻梦2012
你命令错了。是hadoop fs -mkdir /mydir .哪个告警是由于本地库的问题。你在你本地上重新编译一下源码就可以了。
0
苏晓黑
苏晓黑
楼上说的对,是fs 不是dfs
苏晓黑
苏晓黑
回复 @BluesMao : 我也学习了,后来特意查了下dfs和fs的差别。
BluesMao
BluesMao
thanks!
0
BluesMao
BluesMao

引用来自“寻梦2012”的评论

你命令错了。是hadoop fs -mkdir /mydir .哪个告警是由于本地库的问题。你在你本地上重新编译一下源码就可以了。

我是按照教材来的,“ hdfs dfs -mkdir -p /mydir1”这个也是对的,我用的是hadoop2.5.2版本,

查询目录结果:hadoop fs -ls /

15/09/21 03:19:04 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 4 items
drwxr-xr-x   - zkpk supergroup          0 2015-09-20 19:33 /home
drwxr-xr-x   - zkpk supergroup          0 2015-09-21 01:22 /mydir
drwxr-xr-x   - zkpk supergroup          0 2015-09-21 03:18 /mydir1

drwxr-xr-x   - zkpk supergroup          0 2015-09-20 07:17 /sogou

新手,当时没想到HDFS不能再本地直接查看文件夹,谢谢大家的帮助哈!

返回顶部
顶部