hadoop安装与配置-创新互联

1.检查JDK版本

在桃山等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供成都做网站、成都网站制作 网站设计制作定制网站制作,公司网站建设,企业网站建设,高端网站设计,成都营销网站建设,外贸营销网站建设,桃山网站建设费用合理。

2.时间同步

3.设置免密码登录

#生成密钥(node1,node2,node3,node4)
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cd ~/.ssh/
ls
#说明
##id_ds 私钥
##is_dsa.pub 公钥
#将公钥文件追加到本地的认证文件中(node1,node2,node3,node4)
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh 192.168.2.136
#Last login: Sun Jul  9 14:14:35 2017 from 192.168.2.136,表示登录成功,并且是不需要输入密码的
exit
#logout 退出
将node1中的公钥复制到node2,node3,node4中
 scp ./id_dsa.pub root@192.168.2.137:/opt/
 scp ./id_dsa.pub root@192.168.2.138:/opt/
 scp ./id_dsa.pub root@192.168.2.139:/opt/
将/opt/id_dsa.pub添加到node2,node3,node4的认证文件中
 cat /opt/id_dsa.pub >> ~/.ssh/authorized_keys

4.设置node1为NameNode,node2,node3,node4为datanode

将hadoop压缩包上传到node1的/root目录
tar -zxvf hadoop-2.5.1_x64.tar.gz

mv hadoop-2.5.1 /home/
cd /home/
ls
cd hadoop-2.5.1
ls
cd etc/hadoop

#配置1,修改hadoopenv.sh
vi hadoop-env.sh
#将jdk的安装目录添加到这个文件
export JAVA_HOME=/usr/java/jdk1.7.0_79

#配置2,修改core-site.xml
    vi core-site.xml
		<configuration>
		    <property>
		        <name>fs.defaultFS</name>
		        <value>hdfs://192.168.2.136:9000</value>
		    </property>
		    <property>
		        <name>hadoop.tmp.dir</name>
		        <value>/opt/hadoop-2.5</value>
		    </property>
		</configuration>

	#配置3,修改hdfs-site.xml
		vi hdfs-site.xml
		<configuration>
		    <property>
		        <name>dfs.namenode.secondary.http-address</name>
		        <value>192.168.2.137:50090</value>
		    </property>
		    <property>
		        <name>dfs.namenode.secondary.https-address</name>
		        <value>192.168.2.137:50091</value>
		    </property>
		</configuration>

	#配置4,修改slaves
		vi slaves
		192.168.2.137
		192.168.2.138
		192.168.2.139

	#配置5,修改masters
		vi masters
		192.168.2.137

5.复制文件

scp -r hadoop-2.5.1/ root@192.168.2.137:/home/
scp -r hadoop-2.5.1/ root@192.168.2.138:/home/
scp -r hadoop-2.5.1/ root@192.168.2.139:/home/

6.配置hadoop环境变量 

vi ~/.bash_profile
export HADOOP_HOME=/home/hadoop-2.5.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

7.复制文件

scp ~/.bash_profile root@192.168.2.137:/root/
scp ~/.bash_profile root@192.168.2.138:/root/
scp ~/.bash_profile root@192.168.2.139:/root/

8.重新加载~/.bash_profile

source ~/.bash_profile

9.格式化hdf文件系统,只能在NameNode(node1)上使用

hdfs namenode -format

10.查看生成文件fsp_w_picpath

cd /opt/hadoop-2.5/dfs/name/current
ls -l

11.启动节点

start-dfs.sh
#start-all.sh

12.关闭防火墙

service iptables stop

13.监控页面进行访问

http://192.168.2.136:50070/dfshealth.html#tab-overview

14.说明:保证/etc/hosts下的配置正确

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。

文章名称:hadoop安装与配置-创新互联
转载源于:https://www.cdcxhl.com/article18/dhdjgp.html

成都网站建设公司_创新互联,为您提供定制网站用户体验网站改版软件开发网站维护网站营销

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

网站优化排名