这篇文章主要介绍“ Hadoop的单机环境搭建方法”,在日常操作中,相信很多人在 Hadoop的单机环境搭建方法问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答” Hadoop的单机环境搭建方法”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
成都创新互联公司专注于莱州网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供莱州营销型网站建设,莱州网站制作、莱州网页设计、莱州网站官网定制、重庆小程序开发公司服务,打造莱州网络公司原创品牌,更为您提供莱州网站排名全网营销落地服务。
#Hadoop环境#
##操作系统## 我用的是Mac,其实Mac系统也是Linux的一个分支,用RedHat,CenterOS,Ubuntu等都是一样的。不建议在windows下安装Hadoop
##安装前提##
Java
SSH
##获取Hadoop安装包##
这个自己百度吧,我用的是hadoop-2.3.0
##将下载的hadoop安装包用FTP工具上传到Linux服务器的/usr/local目录下
##解压hadoop压缩包
cd /usr/local/ tar -zxvf hadoop-2.3.0.tar.gz
##设置环境变量
vi /etc/profile
添加环境变量: export HADOOP_HOME=/usr/local/hadoop-2.3.0
将hadoop添加到PATH变量中: PATH = $HADOOP_HOME/bin:$PATH
使环境变量生效 : source /etc/profile
##修改Hadoop配置文件##
###修改hdfs-site.xml###
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>
###修改core-site.xml
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop-2.3.0</value> </property> </configuration>
###修改 mapred-site.xml
<configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>
###修改hadoop-env.sh
增加一行:(依照个人的Java安装路径填写)
export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_25.jdk/Contents/Home
##至此,hadoop的安装和配置已经ok##
先格式化一下HDFS系统:
hadoop namenode -format
然后我们可以启动hadoop了
cd /usr/local/hadoop-2.3.0/sbin
./start-all.sh
如果启动时 没有明显的报错,那么说明安装成功了。
##验证 hadoop fs -mkdir /d1 #创建的目录 hadoop fs -ls / #查看根目录
到此,关于“ Hadoop的单机环境搭建方法”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!
文章题目:Hadoop的单机环境搭建方法
转载注明:https://www.cdcxhl.com/article46/jddjhg.html
成都网站建设公司_创新互联,为您提供网站维护、动态网站、面包屑导航、品牌网站制作、企业网站制作、移动网站建设
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联