本文共 737 字,大约阅读时间需要 2 分钟。
* 第一步:查看datanode日志
tail -100 /home/hadoop-2.5.1/logs/hadoop-root-datanode-node2.log
* 异常问题: * 原因:重复格式化。在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。 * 解决办法:将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID,即保持一致。 * 重新启动 参考链接:[https://my.oschina.net/zhongwenhao/blog/603744][3]
2. eclipse上传文件到Hadoop失败的原因及解决方法
原因:系统没有权限 解决办法:修改文件vim hadoop/etc/hadoop/hdfs-site.xml
添加配置: dfs.permissions false
转载地址:http://xhepi.baihongyu.com/