RedHat Linux下安装Hadoop 0.20.2并在Windows下远程连接此(5)

Hadoop安装成功了,来执行一下自带的例子,

执行之前要有输入 输出目录,

建立输入目录: hadoop fs -mkdir input

在这个目录里放入文件:hadoop fs -put /usr/test_in/*.txt  input(把本地/usr/test_in目录里的所有txt文件copy到 hdfs分布式文件系统的 /user/root/input 目录里面,因为当前目录就是root 所以 直接写input 就代表/user/root/input)

进入 /usr/local/hadoop/hadoop 0.20.0目录下,

执行 hadoop jar hadoop-0.20.2-examples.jar wordcount  input ouput

执行完毕之后,执行hadoop fs -ls output,会发现如下

[root@hadoopName hadoop-0.20.2]# hadoop fs -ls output

Found 2 items

drwxr-xr-x   - root supergroup          0 2011-05-08 05:20 /user/root/output/_logs

-rw-r--r--   1 root supergroup       1688 2011-05-08 05:21 /user/root/output/part-r-00000


用命令 hadoop fs -cat output/part-r-00000 查看这个part-r-00000文件的内容,会看到执行的结果。




至此hadoop在RedHat上的安装就结束了,也学这里写的不够详细,如果有兴趣的朋友,可以来交流,(*^__^*) 嘻嘻……,下面我们来看看,在windows上怎么通过eclipse连接我们刚才安装好的hadoop,在linux下就可以查看hdfs分布式文件系统的目录结构,并能在eclipse调试刚才的wordcount程序。



------------------------------------------------------------------- 下面来说说第二部门,在windows下,用eclipse 连接haoop,开发调试。写程序,debug,找原因,看执行过程,这些事不是该linux干的,让它干也干不了,所以这些工作就得在windows下做,windows下用什么做,java程序当然就一个选择:eclipse,

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/ba467424e6f3510d7f31bdb14eb58b42.html