hadoop配置好之后启服务,jps能看到datanode进程,可是后台的datanode日志有如下错误,且50070端口上也是没有活的节点_精品文库_IThao123 – IT行业第一站 http://www.ithao123.cn/content-8105139.html
原因可能是我之前有四台机器,每台机器有6块磁盘,其中有一台机器的磁盘目录与另外3台目录名称不一样,当时创建dfs.data.dir目录的时候,好像没创建成功,所以就做各种格式化操作了。
解决办法
1、先把集群停掉
2、删除hadoop.tmp.dir、dfs.name.dir、dfs.journalnode.edits.dir 等配置目录
3、删除dfs.data.dir目录
4、重新执行如下步骤
在每个节点上把zookeeper服务启动 zkServer.sh start
在某一namenode节点上执行如下命令,创建命名空间 hdfs zkfc -formatZK
在每个节点用如下命令启日志程序 hadoop-daemon.sh start journalnode
在主namenode节点格式化namenode和journalnode目录 hadoop namenode -format mycluster
在主namenode节点启动namenode进程 hadoop-daemon.sh start namenode
如下命令是把备namenode节点的目录格式化并把元数据从主namenode节点拷贝过来(在备节点执行) hdfs namenode -bootstrapStandby
启动备节点的namenode hadoop-daemon.sh start namenode
在两个namenode节点都启动zkfc服务 hadoop-daemon.sh start zkfc
在所有的datanode节点上启动datanode hadoop-daemon.sh start datanode