1. 当出现无法向hdfs中上传文件时,可能是由于运行了多个版本的hadoop程序所导致的namespaceID不一致,所以要删除对应的目录中的文件
/home/hadoop/tmp/hdfs/data将对应的namenode节点,datanode节点中的文件清空,然后重新格式化hdfs文件系统,重新启动服务即可。
2. windows下通过eclipse插件向hadoop-020.203版本的集群中提交代码时要把windows系统的用户名修改为集群环境的用户名才能提交。
3. windows下无法进行job分配时要再程序中加入如下手动指定mapred地址,要与配置中的保持一致:
Configuration conf = new Configuration();
conf.set("mapred.job.tracker", "namenode:9001");
1.直接打包上传后运行
hadoop jar ~/hadoop-0.20.203/hadoop-examples-0.20.203.0.jar wordcount /test.txt /output
2.参数
hdfs://namenode:9000/test.txt hdfs://namenode:9000/out
3.Plug-in org.eclipse.jdt.ui was unable to load
Eclipse:Could not create the view: Plug-in org.eclipse.jdt.ui was unable to load class org.eclipse.
使用Eclipse时,遇到了如下的异常,工作空间(workspace)打不开:Could not create the view: Plug-inorg.eclipse.jdt.ui was unable to load class org.eclipse.jdt.internal.ui.packageview.PackageExplorerPart.***
解决方案就是:删除workspace下的.metadata文件夹,重新打开Eclipse就OK了。或者换一个工作空间!
4.无法在模块路径中找到主题引
Ubuntu11.10安装后qtcreator编译运行,发现出现这个错误
”Gtk-WARNING **: 无法在模块路径中找到主题引擎:“pixmap”“
通过网上搜索之后,发现可能是gtk引擎除了问题,
在终端下输入sudo apt-get install gtk2-engines-pixbuf即可解决