Hadoop完全分布式的Eclipse开发环境配置,hadoopeclipse


Hadoop安全分布式的Eclipse开发环境配置

 

安装Eclipse

详细见教程:http://blog.csdn.net/wang_zhenwei/article/details/48032001

 

安装Hadoop-Eclipse-Plugin

下载 hadoop2x-eclipse-plugin ,将 release 中的 hadoop-eclipse-kepler-plugin-2.2.0.jar (虽然标注的是 2.2.0,但在 2.6.0 下是没问题的,应该在 2.x 版本下都可以)复制到 Eclipse 安装目录的 plugin 文件夹中,运行 eclipse -clean 重启 Eclipse 即可

下载地址:https://github.com/winghc/hadoop2x-eclipse-plugin

注:将Hadoop-Eclipse-Plugin复制到home/haoop/目录下

 

(这一步可直接在普通用户下操作,若在root用户下,要先进入/home/hadoop/目录)

unzip ./hadoop2x-eclipse-plugin-master.zip

解压

 

(进入root用户)

cp /home/hadoop/hadoop2x-eclipse-plugin-master/release/hadoop-eclipse-kepler-plugin-2.2.0.jar /usr/local/eclipse/eclipse/plugins/

复制

/usr/local/eclipse/eclipse/eclipse -clean

重启

 

启动 Eclipse 后就可以在左侧的Project Explorer中看到 DFS Locations(若看到的是 welcome 界面,点击左上角的 关闭就可以看到了)

(注:可以在Windows-ShowView处选择要显示的对话框)

 

 

插件的进一步配置:

 

第一步:

选择 Window 菜单下的 Preference

 

此时会弹出一个窗体,窗体的左侧会多出 Hadoop Map/Reduce 选项,点击此选项,选择 Hadoop 的安装目录(如/usr/local/hadoop,直接输入也可以)

 

 

第二步:

 

切换 Map/Reduce 工作目录,选择 Window 菜单下选择 Perspective -> Open Perspective -> Other,弹出一个窗体,从中选择 Map/Reduce 选项即可进行切换

 

 

第三步:

 

建立与 Hadoop 集群的连接,点击 Eclipse软件右下角的 Map/Reduce Locations 面板,在面板中单击右键,选择 New Hadoop Location


注:信息说明

Location Name:可以任意其,标识一个"Map/Reduce Location"

Map/Reduce Master

Host192.168.154.156MasterIP地址)

Port9001

DFS Master 

Use M/R Master host:前面的勾上。(因为我们的NameNodeJobTracker都在一个机器上。)

Port9000

User namehadoop(默认为Win系统管理员名字,因为我们之前改了所以这里就变成了hadoop

 

接着再切换到 Advanced parameters 选项面板,这边有详细的配置,切记需要与 Hadoop 的配置(/usr/local/hadoop/etc/hadoop中的配置文件)一致,如果配置了 hadoop.tmp.dir,就要进行修改。

 

/usr/local/hadoop/tmp

 

如果此时Hadoop没有运行,则会看到下面的结果。

 

 

 

启动Hadoop,结果符合预期。

 

版权声明:本文为博主原创文章,未经博主允许不得转载。

相关内容