Hadoop在Windows下安装

Hadoop的生产环境是Linux或者是Unix,要在Windows下搭建Hadoop需要借助Cygwin来搭建模拟Linux环境。那么首要任务就是在Windows下安装Cygwin。本次安装只是搭建一个Hadoop的学习平台,并没有任何的实践的意义,由于本人也只是菜鸟,所以只提供和我一样新接触Hadoop的童鞋参考。

安装Cygwin

Cygwin的下载地址百度一下一大把,我这里给一个官方最新版本的下载地址:。下载下来之后双击安装就可以了。

Hadoop在Windows下安装

此处有三个选项,第一个是从网上下载安装文件,第二个是下载安装文件,但不进行安装,第三个是直接从本地目录获取安装文件信息(这种情况是你以前安装过Cygwin,然后再你本地有临时目录,如果你以前没有安装过,那么就不用选择这个选项)。

完成上一步骤后点击下一步,会让你选择一个下载的镜像地址,此处可以随便选一个地址,之后会弹出一个警告框,点击确认即可。点击之后,会出现一个选择安装组件的窗口,此处需要选中Base下面的sed,eidtors下面的vim以及vim-common,还有net下面的openssl,还有Devel下面的subversion。选择完成后点击下一步,等待下载完成后安装完毕即可。记住,在安装完毕之后记得在环境变量的PATH后面加上%CYGWIN_HOME%/bin以及%CYGWIN_HOME%/usr/sbin。

Sshd安装

注意:此处需要以管理员身份运行cygwin,因为下面可能的一些操作会受到权限的限制。

本人安装sshd尝尽了苦头,折腾了半天,百度了无数次,就在无意中找到了原因。按照网上的一般安装步骤之前请先安装cygserver。直接执行cygserver-config,会询问是否将cygserver作为一个服务,输入yes即可。然后执行net start cygserver,已启动cygserver服务。执行完之后下面就真正地安装sshd了。

执行ssh-host-config后会提示:Should privilege separation be used?记住此处输入yes,虽然网上很多说输入no,但是本人尝试过很多次,输入no安装不成功。接下来就会出现

*** Query:Do you want to install sshd as a service?
*** Query: (Say"no" if it is already installed as a service) (yes/no)  

输入yes,表示你同意安祖行sshd作为一个服务。

接下来可能会提示

*** Query:Enter the value of CYGWIN for the daemon: [ntsec]

此处输入ntsec即可。如果没有出现那就不用管它。接下来会提示:

*** Info:'cyg_server' will only be used by registered services.
*** Query: Do you wantto use a different name? (yes/no)

因为sshd需要一个windows下的一个用户来运行,所以要创建一个windows下的用户,默认情况下这个用户名是cyg_server,所以这里就提示你是不是要用和这个不一样的用户名,输入yes表示你要用别的用户名,那么就要你输入一个用户名,输入no则采用这个用户名。接下来就是输入这个用户名的密码,输入你想要的密码即可。到此sshd的安装已基本完成,执行exit退出。然后打开cygwin执行cygrunsrv-S sshd,启动sshd服务,启动成功之后执行ssh-keygen一路回车即可。执行完之后在执行下图操作:

Hadoop在Windows下安装

在执行exit。重新运行cygwin,在执行ssh localhost那么就可以成功登陆了。

Hadoop在Windows下安装

到此就完成了sshd的安装,下面就剩下安装hadoop了。

Hadoop的安装

到此,安装Hadoop是比较简单的,只是修改Hadoop的几个配置文档和环境变量。

本人安装的是Hadoop-0.22.0,下载地址是:。我的安装过程是更具官方的相关文档来操作的,地址为:。 这个版本的Hadoop基本按照官方的文档来进行安装设置就可以了,我也就不赘述,最多也就是复制粘贴一下,所以觉得没必要,大家可以参考官方的文档即可。当然,在安装Hadoop之前,最好设置好JAVA_HOME环境变量,指向你的JDK的目录。当然,还有Hadoop的其他版本,经过本人尝试安装release版本的0.23.4,更具官方的文档安装一直不成功,还待本人以后继续了解之后再尝试一下。本文的目的是搭建一个简单的Hadoop,以方便以后的学习使用,而不是搭建一个生产环境为目的。后续会进入真正地Hadoop的具体内容学习。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/34ec8ca47f20517dc41c287fada9b9e8.html