简单认识namenode和datanode

1. 首先在npdev1机器上面运行hadoop-daemon.sh start namenode,启动namenode.

简单认识namenode和datanode

2. 然后在npfdev2,npfdev3,npfdev4分别运行hadoop-daemon.sh start datanode

简单认识namenode和datanode

3. 启动完成之后,我们的Hadoop的物理架构和逻辑架构如下:

npfdev1机器上面运行namenode, npfdev2,npfdev3,npfdev4分别运行datanode.

简单认识namenode和datanode

4. HDFS架构如下:

Hadoop简单来说就是多台机器备份的,可以横向扩展的系统。

简单认识namenode和datanode

二、使用命令行查看整个集群信息

1. 使用hdfs dfsadmin -report命令

我们为了更好的展示,使用hdfs dfsadmin -report | more 命令:

1.1 看集群的使用情况:

简单认识namenode和datanode

1.2 看集群的datanode的情况,总共有3个live的datanode.

第一个datanode:

简单认识namenode和datanode

第二个datanode:

简单认识namenode和datanode

第三个datanode:

简单认识namenode和datanode

三、使用web页面查看整个集群信息

1. 访问:50070,选择Overview选项:

简单认识namenode和datanode

2. 选择Datanodes选项:

简单认识namenode和datanode

 3. 选择Utilities选项下面的browse directory,可以看到整个硬盘的使用情况:

简单认识namenode和datanode

4. 选择Utilities选项下面的logs,可以看到启动日志:

简单认识namenode和datanode

四、关闭Hadoop集群

1. 首先在npdev1机器上面运行hadoop-daemon.sh stop namenode.

简单认识namenode和datanode

2. 然后在npfdev2,npfdev3,npfdev4分别运行hadoop-daemon.sh stop datanode.

简单认识namenode和datanode

五、启动和关闭Hadoop集群命令步骤总结:

1. 在master上启动hadoop-daemon.sh start namenode.
2. 在slave上启动hadoop-daemon.sh start datanode.
3. 用jps指令观察执行结果.
4. 用hdfs dfsadmin -report观察集群配置情况.
5. 通过:50070界面观察集群运行情况.
6. 用hadoop-daemon.sh stop ...手工关闭集群.

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/b6e5500691b9abe4148c25798246ee18.html