摘要:集群搭建環(huán)境虛擬機三臺主節(jié)點一下如無特殊說明都是在主節(jié)點上配置下載安裝參考文檔文檔自行選擇版本安裝本文按示例版本的配置參考文檔解壓上傳到系統(tǒng)中解壓配置配置文件位置環(huán)境因為要遠程調(diào)用找不到變量使用的文件系統(tǒng)和的位置運行時產(chǎn)生的文件的
hadoop集群搭建
環(huán)境 centos6.7
虛擬機三臺 yh01(主節(jié)點) yh02 yh03 一下如無特殊說明都是在主節(jié)點上配置
1.下載http://mirrors.hust.edu.cn/ap...
hadoop-3.1.1.tar.gz
2.安裝 2.1 參考文檔
文檔 http://hadoop.apache.org/docs/
自行選擇版本安裝 本文按3.1.1示例
版本 http://hadoop.apache.org/rele...
3.1.1的配置參考文檔 http://hadoop.apache.org/docs...
2.2 解壓上傳hadoop-3.1.1.tar.gz到centos6.7系統(tǒng)中 解壓
2.3 配置配置文件位置 /export/servers/hadoop-3.1.1/etc/hadoop/
hadoop-env.sh 27
#jdk 環(huán)境 因為要遠程調(diào)用 ${java_home}找不到變量 export JAVA_HOME=/export/servers/jdk1.8.0_141
core-site.xml
#hadoop使用的文件系統(tǒng)(uri) hdfs 和hdfs的位置 fs.defaultFS hdfs://yh01:9000 #hadoop運行時產(chǎn)生的文件的存儲位置 hadoop.tmp.dir /export/data/HADOOP/apps/hadoop-3.1.1/tmp
hdfs-site.xml 都有默認值 也可以不配置
---------------- #namenode上存儲hdfs名字空間元數(shù)據(jù) dfs.namenode.name.dir /export/data/HADOOP/hdfs/name #hdfs datanode上數(shù)據(jù)塊的物理存儲位置 dfs.datanode.data.dir /export/data/HADOOP/hdfs/data #hdfs數(shù)據(jù)副本數(shù)量 3分副本 應小于datanode機器數(shù)量 ----------------dfs.replication 3 dfs.secondary.http.address yh01:50090
mapred-site.xml
mapreduce.framework.name #mr運行的平臺 默認local本地模式yarn
yarn-site.xml
yarn.resourcemanager.hostname #yarn (MR)的ResourcesManager管理界面的地址 主機名稱yh01 #reducer獲取數(shù)據(jù)的方式 yarn.nodemanager.aux-services mapreduce_shuffle
添加hdfs權(quán)限 vim sbin/start-dfs.sh sbin/stop-dfs.sh 在頂部空白位置添加
HDFS_DATANODE_USER=root HDFS_DATANODE_SECURE_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
否則會報錯 (缺少用戶權(quán)限定義造成的)因此編輯啟動和關閉
ERROR: Attempting to launch hdfs namenode as root ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting launch. Starting datanodes ERROR: Attempting to launch hdfs datanode as root ERROR: but there is no HDFS_DATANODE_USER defined. Aborting launch. Starting secondary namenodes [localhost.localdomain] ERROR: Attempting to launch hdfs secondarynamenode as root ERROR: but there is no HDFS_SECONDARYNAMENODE_USER defined. Aborting launch.
添加yarn權(quán)限 vim sbin/start-yarn.sh sbin/stop-yarn.sh
YARN_RESOURCEMANAGER_USER=root HDFS_DATANODE_SECURE_USER=yarn YARN_NODEMANAGER_USER=root2.4 添加環(huán)境變量
vim /etc/profile
export JAVA_HOME=/export/servers/jdk1.8.0_141 export PATH=$PATH:$JAVA_HOME/bin #hadoop export HADOOP_HOME=/export/servers/hadoop-3.1.1 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
臨時簡單驗證下有沒有問題
[root@yh01]# cd $HADOOP_HOME [root@yh01 hadoop-3.1.1]# bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.1.jar grep input output "dfs[a-z.]+"
修改ssh (yh01 yh02 yh03 都需要執(zhí)行ssh-keygen以下的命令)
現(xiàn)在檢查您是否可以在沒有密碼的情況下ssh到localhost: ssh yh01 如果在沒有密碼短語的情況下無法ssh到localhost,請執(zhí)行以下命令: ssh-keygen -t rsa -P "" -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys 添加本機ssh到本機ssh中 當使用start-all.sh啟動works下的所有機器時能直接無秘鑰啟動 同時分發(fā)yh01主機的秘密到其他機器中 ~/.ssh/authorized_keys 包含 當前機器 及主節(jié)點機器的秘鑰
修改/etc/ssh/sshd_config 文件
需要修改的 如果有注釋 就發(fā)開注釋 RSAAuthentication yes PubkeyAuthentication yes #這兩項為打開公鑰模式 AuthorizedKeysFile .ssh/authorized_keys #配置公鑰記錄文件 PasswordAuthentication yes #打開密碼驗證模式2.4.1 分發(fā)hadoop文件
分發(fā)$HADOOP_HOME的文件到其他機器
[root@yh01 hadoop-3.1.1]# pwd /export/servers/hadoop-3.1.1 [root@yh01 hadoop-3.1.1]# scp -r hadoop-3.1.1/ root@yh02:$PWD [root@yh01 hadoop-3.1.1]# scp -r hadoop-3.1.1/ root@yh03:$PWD
修改works文件 文件中的所有工作者主機名或IP地址,每行一個
添加hadoop節(jié)點 vim hadoop-3.1.1/etc/hadoop/works 假設有3臺 yh01 yh02 yh03 要添加本機ssh鏈接 ssh yh013 啟動 3.1 先格式化HDFS 啟動HDFS 然后啟動yarn
如果配置了workds文件 只需要在yh01上執(zhí)行即可 分割線一下的可以忽略 hdfs namenode -format 啟動 $HADOOP_HOME/sbin/start-dfs.sh $HADOOP_HOME/sbin/start-yarn.sh $HADOOP_HOME/bin/mapred --daemon start historyserver 關閉 $HADOOP_HOME/sbin/stop-dfs.sh $HADOOP_HOME/sbin/stop-yarn.sh $HADOOP_HOME/bin/mapred --daemon stop historyserver =========================== 在主節(jié)點 yh01上執(zhí)行 $HADOOP_HOME/bin/hdfs --daemon start namenode 在副節(jié)點 yh02 yh03上執(zhí)行 $HADOOP_HOME/bin/hdfs --daemon start datanode #格式化成功 2018-08-24 16:41:04,983 INFO common.Storage: Storage directory /export/data/HADOOP/data/name has been successfully formatted.3.2 批量操作
啟動所有 start-all.sh 關閉所有 stop-all.sh3.3 驗證
[root@yh01 logs]# jps 5633 Jps 4498 ResourceManager 4020 DataNode 5556 JobHistoryServer 3879 NameNode 4247 SecondaryNameNode 4635 NodeManager [root@yh02 hadoop-3.1.1]# jps 5856 Jps 3969 Bootstrap 5345 NodeManager 5235 DataNode 3919 QuorumPeerMain [root@yh03 hadoop-3.1.1]# jps 3729 QuorumPeerMain 4820 NodeManager 4711 DataNode 3768 Bootstrap 5050 Jps4訪問manager頁面
Daemon | Web Interface | Notes |
---|---|---|
NameNode | http://nn_host:port/ | Default HTTP port is 9870. |
ResourceManager | http://rm_host:port/ | Default HTTP port is 8088. |
MapReduce JobHistory Server | http://jhs_host:port/ | Default HTTP port is 19888. |
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/76984.html
摘要:總之,項目還算很受歡迎吧,這篇博客將介紹項目的升級版。一項目介紹將打包到鏡像中,就可以快速地在單個機器上搭建集群,這樣可以方便新手測試和學習。之前的版本使用為集群提供服務,由于網(wǎng)絡功能更新,現(xiàn)在并不需要了。運行參考第二部分啟動,并運行。 摘要: kiwenlau/hadoop-cluster-docker是去年參加Docker巨好玩比賽開發(fā)的,得了二等獎并贏了一塊蘋果手表,目前這個項目...
閱讀 1166·2021-11-16 11:45
閱讀 1027·2021-09-04 16:41
閱讀 3083·2019-08-29 16:40
閱讀 2861·2019-08-29 15:34
閱讀 2679·2019-08-29 13:11
閱讀 1741·2019-08-29 12:58
閱讀 1734·2019-08-28 18:00
閱讀 1782·2019-08-26 18:26