1、在hdfs中创建文件夹时
hadoop fs -mkdir testdata
错误 提示:No such file or directory
解决方法:
hadoop fs -mkdir -p /user/hadoop/testdata
2、datanode无法启动
jps发现没有datanode服务。
解决方法:
删除datanode的所有资料。将集群中每个datanode的/hdfs/data/current中的VERSION删掉,hdfs为hadoop-src/conf/hdfs-site.xml中name为dfs.data.dir所指向的值,如:/usr/local/hadoop/data/hadoop/data,
/hdfs/data/current/VERSION =/usr/local/hadoop/data/hadoop/data/current/VERSION)。
然后stop所有服务,格式化namenode。。。
stop-all.shhadoop namenode -formatstart-all.shjps
3.使用hadoop fs -ls时报错
WARN ipc.Client: Address change detected. Old: xxx New: xxx
/etc/hosts文件内容在启动前后有变动,或者IP与主机名称配置不正确
4.javac 编译引入hadoop API 时报错
(1)、可以通过配置hadoop的classpath变量解决;
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
(2)、在编译时引入hadoop core包
javac -classpath hadoop-core-xxx.jar Xxxxx.java
若依赖的还有其他包则使用 : 加上
javac -classpath hadoop-core-xxx.jar:XXX.jar Xxxxx.java