Hadoop文件损坏解决办法
Hadoop文件损坏解决办法
今天把集群重新扩容了一下,把之前的两台电脑重新装了系统,结果启动Hadoop发现报错了。
问题原因:在hdfs-site中配置的副本书为1,而且把两台机子的文件给清理了,导致一部分数据丢失,而且无法恢复,报错导致hbase无法访问60010端口
解决办法:使用 hadoop fsck / 列出损坏文件,损坏的文件无法恢复,只能删除损坏的文件 hadoop fsck -delete
--------------------------------------分割线 --------------------------------------
Ubuntu14.04下Hadoop2.4.1单机/伪分布式安装配置教程
CentOS安装和配置Hadoop2.2.0
Ubuntu 13.04上搭建Hadoop环境
Ubuntu 12.10 +Hadoop 1.2.1版本集群配置
Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)
Ubuntu下Hadoop环境的配置
单机版搭建Hadoop环境图文教程详解
评论暂时关闭