更新時(shí)間:2018-07-27 來源:黑馬程序員技術(shù)社區(qū) 瀏覽量:
解壓hadoop
tar -zxvf h -C app/
hadoop文件目錄結(jié)構(gòu)解析:
bin:可執(zhí)行腳本
sbin:系統(tǒng)腳本,啟動(dòng)停止hadoop的腳本
etc:hadoop的配置文件
lib:hadoop的本地庫
include:本地庫包含文件
share:包含了hadoop的jar包和一些說明文檔,我們可以刪除說明文檔,精簡hadoop
進(jìn)入hadoop的配置文件去更改設(shè)置
1.hadoop-env.sh(寫死一個(gè)jkd的目錄進(jìn)去,因?yàn)橛械臅r(shí)候找不見)
2.echo $JAVA_HOME
/home/hadoop/app/jdk1.7.0_65
2.本機(jī)的javahome為 /home/hadoop/app/jdk1.7.0_65
3.export JAVA_HOME=/home/hadoop/app/jdk1.7.0_65
偽分布式:就是所有的程序都在一臺(tái)主機(jī)上跑,完全是分布式的工作模式,但是不是真正的分布式
先上傳hadoop的安裝包到服務(wù)器上去/home/hadoop/
注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
偽分布式需要修改5個(gè)配置文件
3.1配置hadoop
第一個(gè):hadoop-env.sh
vim hadoop-env.sh
#第27行
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_65
第二個(gè):core-site.xml
<!-- 指定HADOOP所使用的文件系統(tǒng)schema(URI),HDFS的老大(NameNode)的地址 -->
vim core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://weekend110:9000/</value>
</property>
<!-- 指定hadoop運(yùn)行時(shí)產(chǎn)生文件的存儲(chǔ)目錄 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoop-2.4.1/data/</value>
</property>
vi hdfs-site.xml
第三個(gè):hdfs-site.xml
vim hdfs-site.xml
<property>
<!-- 指定HDFS副本的數(shù)量 -->
<name>dfs.replication</name>
<!-- 因?yàn)橹挥幸慌_(tái)機(jī)器,所以配置為1 -->
<value>1</value>
</property>
yaant運(yùn)行必須的配置文件
首先修改文件呢的名字,不然hadoop不會(huì)讀取的
第四個(gè):mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定mr運(yùn)行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
第五個(gè):yarn-site.xml
vim yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>weekend110</value>
</property>
<!-- reducer獲取數(shù)據(jù)的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
現(xiàn)在關(guān)閉Hadoop服務(wù)器的防火墻:
sudo service iptables stop
查看狀態(tài)
sudo service iptables status
查看Liunx防火墻的自啟動(dòng)服務(wù)設(shè)置
sudo chkconfig iptables --list
關(guān)掉Liunx防火墻的自啟動(dòng)服務(wù)設(shè)置
sudo chkconfig iptables off
第一次啟動(dòng)注意要格式化文件系統(tǒng)
方便執(zhí)行bin下的指令
3.2將hadoop添加到環(huán)境變量
sudo vi /etc/profile
export HADOOP_HOME=/home/hadoop/app/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
hadoop namenode -format
3.3格式化namenode(是對namenode進(jìn)行初始化)
hdfs namenode -format (hadoop namenode -format)
修改主機(jī)名稱
vi sla
3.4啟動(dòng)hadoop
先啟動(dòng)HDFS
sbin/start-dfs.sh
再啟動(dòng)YARN
sbin/start-yarn.sh
3.5驗(yàn)證是否啟動(dòng)成功
jps
使用jps命令驗(yàn)證
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
http://192.168.2.100:50070 (HDFS管理界面)
http://192.168.2.100:8088 (MR管理界面)
4.配置ssh免登陸
#生成ssh免登陸密鑰
#進(jìn)入到我的home目錄
cd ~/.ssh
ssh-keygen -t rsa (四個(gè)回車)
執(zhí)行完這個(gè)命令后,會(huì)生成兩個(gè)文件id_rsa(私鑰)、id_rsa.pub(公鑰)
將公鑰拷貝到要免登陸的機(jī)器上
ssh-copy-id localhost
hadoop
本文版權(quán)歸黑馬程序員JavaEE學(xué)院所有,歡迎轉(zhuǎn)載,轉(zhuǎn)載請注明作者出處。謝謝!
首發(fā):http://java.itheima.com/
2019版大數(shù)據(jù)學(xué)習(xí)路線圖(含大綱+視頻+工具+教材+面試)
2018-05-14云計(jì)算大數(shù)據(jù):spark與storm比對與選型
2018-01-23【云計(jì)算大數(shù)據(jù)】Java面試題之?dāng)?shù)據(jù)庫三范式是什么
2018-01-10云計(jì)算面試題之Request對象的主要方法
2018-01-05云計(jì)算大數(shù)據(jù):企業(yè)中處理數(shù)據(jù)的兩種主要方式
2018-01-05云計(jì)算大數(shù)據(jù):KVM虛擬化技術(shù)實(shí)戰(zhàn)
2017-12-22