启动Hadoop,输入 bin/start-all.sh,这个命令启动了所有服务。
root@Ubuntu:/hadoop-1.1.0/bin# ./start-all.sh 
starting namenode, logging to /hadoop-1.1.0/libexec/../logs/hadoop-root-namenode-ubuntu.out 
localhost: starting datanode, logging to /hadoop-1.1.0/libexec/../logs/hadoop-root-datanode-ubuntu.out 
localhost: starting secondarynamenode, logging to /hadoop-1.1.0/libexec/../logs/hadoop-root-secondarynamenode-ubuntu.out 
starting jobtracker, logging to /hadoop-1.1.0/libexec/../logs/hadoop-root-jobtracker-ubuntu.out 
localhost: starting tasktracker, logging to /hadoop-1.1.0/libexec/../logs/hadoop-root-tasktracker-ubuntu.out
此语句执行后会列出已启动的东西NameNode,JobTracker,SecondaryNameNode...如果NameNode没有成功启动的话就要先执行"bin/stop-all.sh"停掉所有东西,然后重新格式化namenode,再启动
验证hadoop是否安装成功,访问: 
:50030  (MapReduce的web界面) 
:50070  (这个是 HDFS的web界面 )
root@ubuntu:/jdk1.6/bin# ./jps 
11325 JobTracker 
13345 Jps 
10826 NameNode 
11036 DataNode 
11541 TaskTracker 
11252 SecondaryNameNode
Hadoop 从三个角度将主机划分为两种角色 
1、Master 和 slave 
2、从HDFS角度,主机分为:namenode 和 datanode(在分布式系统中,目录的管理是关键,管理目录的就相当于主任,而namenode就是目录管理者) 
3、从MapReduce角度,主机分为:JobTracker 和 Task Tracker(一个job经常被划分为多个task,从这个角度不难理解他们之间的关系)
