【hadoop学习】--(1)hadoop安装前准备,hadoop--


hadoop安装前准备
-------------------
1 用VMware安装Ubuntu
<1>下载32位版本的ubuntu kylin 14
http://www.ubuntu.com.cn/download/ubuntu-kylin-zh-CN
<2>安装 SSH(Secure Shell) 服务以提供远程管理服务(此时还是默认NAT方式,可以联网)
参考:http://blog.csdn.net/changemyself/article/details/2729748
执行命令:sudo apt-get install openssh-server
 查看,ps -e | grep sshroot@ubuntu:
 重启:sudo /etc/init.d/ssh restart
2 配置宿主机与虚拟机的host-only方式(单独组网)
<1>设置主机IP
VMnet1 IP为192.168.80.1
控制面板\网络和 Internet\网络连接
注:
ipconfig不能执行解决:path中加环境变量C:\windows\system32;
再不行就直接到这个路径下面执行
<2>VMware中设置网络适配器为仅主机模式
3 设置root用户登录
参考:http://blog.csdn.net/yimiyangguang1314/article/details/7534911
<1>切换到root用户
sudo  -s.然后输入普通用户登陆的密码,回车即可进入 root用户权限模式.
<2>修改配置文件
gedit  /etc/lightdm/lightdm.conf. 
[SeatDefaults]
allow-guest=false
autologin-user=root
autologin-user-timeout=0
autologin-session=lightdm-autologin
user-session=ubuntu
greeter-session=unity-greeter
<3>启动root帐号:
sudo passwd root
根据提示输入root帐号密码。
<4>重启ubuntu
不需要手动输入root用户名密码,系统会自动进入root用户。
4 设置静态ip
<1>修改配置文件
sudo gedit /etc/network/interfaces 
# interfaces(5) file used by ifup(8) and ifdown(8)
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet static
address 192.168.80.100
gateway 192.168.80.1
netmask 255.255.255.0
network 192.168.0.0
broadcast 192.168.0.255
<2>重启网卡
$sudo /etc/init.d/networking restart
<3>上面1、2不起作用
参考:http://blog.csdn.net/jjbob77/article/details/5524242
设置IP地址和子网掩码
sudo ifconfig eth0 192.168.80.100 netmask 255.255.255.0
设置网关
sudo route add default gw 192.168.80.1
5 修改主机名
相当于ip的域名
参考:http://blog.163.com/chenxiaodong_2009/blog/static/12908233020091112468849/
<1>永久修改主机名
sudo gedit /etc/hostname 内容修改为hadoop
    <2>绑定ip
sudo gedit /etc/hosts 也是将原主机名改为新主机名
192.168.80.100 hadoop
<3>验证ping hadoop 
6 关闭防火墙(默认是关闭的)
参考:http://blog.sina.com.cn/s/blog_a1f8a9a401018pia.html
ufw disable
7 SSH免密码登陆(这之前可以通过scp tty用安装时的用户名登录)
<1>创建文件夹
mkdir ~/.ssh
<2>生成密钥文件
ssh-keygen -t rsa
<3>复制到指定文件中
cp id_rsa.pub authorized_keys
<4>验证
ssh localhost
exit两次才退出终端
8 安装JDK
到文件目录下 
<1>解压:
执行./jdk-6u24-linux-i586.bin
<2>改名字
mv jdk1.6.0_24 jdk
mv jdk /usr/lib/jvm
<3>环境变量
sudo gedit /etc/profile加两行
export JAVA_HOME=/usr/lib/jvm
export PATH=.:$JAVA_HOME/bin:$PATH
<4>立即生效:
source /etc/profile









学习hadoop需要什准备?(知识?硬件?软件?)

1、安装:HADOOP安装在LINUX下,测试的话,安装在windows的cpywin下也可。
2、开发:HADOOP开发,也就是MAPREDUCE开发。
要有java基础,理解mapreduce编程理念。开发环境可以是ECLIPSE。不需要学hibernate,struts,SPRING等框架。
3、参考:www.hadoopor.com网站上,看看更多的内容。
希望对你有帮助

参考资料zhidao.baidu.com/question/357576874.html
 

编程零基础想学对于hadoop,需要怎学习?高人指点一下!

java是必须要学习的。否则很多东西在后续开发的时候会遇到很多麻烦的地方。
先学习java基础就可以。
另外linux也是需要的,环境变量等等概念还是要知道的,基本命令也要会一些。
推荐几本书:
java基础:java核心技术 两本
hadoop:hadoop实战
 

相关内容