服务器:
用户:hadoop
ip | 机器名 | 系统 |
192.168.199.155 | master-hadoop | ubuntu desktop 15 |
192.168.199.157 | slave1-hadoop | ubuntu desktop 15 |
192.168.199.158 | slave2-hadoop | ubuntu desktop 15 |
java:

hadoop:
版本:2.7.2
路径:/usr/local/hadoop
开始部署
以下部署动作全部在master上执行,slave1和slave2通过虚拟机克隆的方式生成。
设置系统环境变量,编辑/etc/profile,末尾添加:

修改hosts,编辑/etc/hosts,末尾添加:

配置ssh免密登陆
[hadoop@master-hadoop ~]$
ssh
-keygen -t rsa
[hadoop@slave1-hadoop ~]$
cd
/home/hadoop/
.
ssh
/
[hadoop@slave1-hadoop .
ssh
]$
cat
id_rsa.pub >> authorized_keys
[hadoop@slave1-hadoop .
ssh
]$
chmod
600 authorized_keys
[hadoop@slave1-hadoop .
ssh
]$
chmod
700 ../.
ssh
/
修改hadoop配置文件(core-site.xml和hdfs-site.xml文件中根据hadoop路径修改节点内容)
hadoop-env.sh

slaves

core-site.xml

hdfs-site.xml

yarn-site.xml

mapred-site.xml

克隆虚拟机,生成slave节点(vmware克隆后网卡mac要重新生成,然后在ubuntu网络设置里重新设置mac地址)
修改机器名,编辑/etc/hostname,文件内容改为slave1|slave2后重启系统。
在master上ssh连接slave1和slave2,测试免密码登陆是否成功,执行
在master上启动hadoop,执行
注意事项:
hadoop用户必须有/usr/local/hadoop文件夹读写权限
ssh登陆提示The authenticity of host can't be established,修改/etc/ssh/ssh_config文件的配置,最后面添加:
StrictHostKeyChecking no
UserKnownHostsFile /dev/null
测试

出处:http://www.cnblogs.com/wocaca/p/5187059.html 作者:一羽赐命