Hadoop集群机器的hosts文件配置

Hosts文件配置,想必只要玩过Linux的人,都会配置,这个文件存在于/etc/hosts里,修改每个文件之前,大家记得养成一个好的习惯,做一个备份:

1:cd /etc
 2: cp hosts hosts0319
 3: vi hosts

在这个文件里,把所有对应的Hadoop集群服务器,对应的IP,Hostname都增加进去。我自己测试用的虚拟机的Host文件如下:
 127.0.0.1  localhost.localdomain  localhost
 10.16.36.230    HadoopSrv01
 10.16.36.231    HadoopSrv02
 10.16.36.232    HadoopSrv03
 
当然在做以上配置之前,大家需要安装好服务器,服务器可以有三种选择:
 1: 实体机,直接安装Linux.
 2:  性能好的一台服务器上面,通过安装VM, 搭建虚拟机。
 3:在一台性能一般的机器上通过搭建伪分布式来模拟测试。
 
具体硬件选型这块,回头再跟大家一起分享一下。 建议先搭建三个节点,每个节点有可能的话,内存配置到1-4G,硬盘100-500G,1颗2core的CPU,没有条件的话,
 1G 内存,20G硬盘,1颗1核CPU 也可以,自己学习的环境 ,都无所谓。
 
另外还有一个很重要的步骤就是:
 
1: 一定要关闭防火墙。
 2: Disabled Selinux.
 以上两个操作,如果大家也不熟悉的话,请找度娘。

--------------------------------------分割线 --------------------------------------

Ubuntu 13.04上搭建Hadoop环境

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置

Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)

Ubuntu下Hadoop环境的配置

单机版搭建Hadoop环境图文教程详解

Hadoop LZO 安装教程

Hadoop集群上使用Lzo压缩

--------------------------------------分割线 --------------------------------------

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/1c0d300fff719fc299d9ad2cfca3843c.html