摘要:是源碼,要編譯才能用。的是給位機器用的,想在位機器上用只能用編譯的。解壓配置環境變量在和中添加環境變量添加環境變量修改修改修改文件修改在文件中添加鏡像啟動集群進入到每個節點執行每個節點配置查看地址配置啟動查看參考
docker安裝
安裝
yum install -y epel-releas yum install docker-io
加入開機啟動
chkconfig docker on
啟動docker
service docker start
拉取基礎鏡像 centos
centos鏡像
sudo docker pull insaneworks/centos
制作Hadoop鏡像
進入centos容器
sudo docker run -it -h master --name master insaneworks/centos /bin/bash
裝gcc
yum install -y gcc
裝vim
yum install -y vim
裝lrzsz
yum install -y lrzsz
裝ssh
yum -y install openssh-server yum -y install openssh-clients
修改ssh配置
vim /etc/ssh/sshd_config 放開 PermitEmptyPasswords no 更改 UsePAM no 放開 PermitRootLogin yes
啟動sshd
service sshd start
ssh密碼設置
ssh-keygen -t rsa -P "" -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh連master
ssh master
安裝java
在docker容器中安裝Java(從宿主機向docker容器中拷貝文件)
安裝tar
yum install -y tar
下載Hadoop
http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.2/hadoop-2.8.2.tar.gz tar.gz是已經編譯好的了,解壓改改配置文件就能用。src.tar.gz是源碼,要編譯才能用。tar.gz的是給32位機器用的,想在64位機器上用只能用編譯的。
解壓
tar zxvf hadoop-2.8.2.tar.gz
配置環境變量
export HADOOP_HOME=/home/hadoop/hadoop-2.8.2 export PATH=$JAVAHOME/bin:$HADOOP_HOME/bin:$PATH
在hadoop-env.sh 和 yarn-env.sh中添加環境變量
vim hadoop-env.sh vim yarn-env.sh 添加環境變量 export JAVA_HOME=/usr/java/jdk1.7.0_75
修改 hadoop core-site.xml
fs.defaultFS hdfs://master:9000 io.file.buffer.size 131702 hadoop.tmp.dir file:/mnt/hadoop-2.8.2/tmp
修改hdfs-site.xml
dfs.namenode.name.dir file:/mnt/hadoop-2.8.2/dfs/name dfs.datanode.data.dir file:/mnt/hadoop-2.8.2/dfs/data dfs.replication 2 dfs.namenode.secondary.http-address master:9001 dfs.webhdfs.enabled true
修改mapred-site.xml文件
mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888
修改yarn-site.xml
yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.auxservices.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.address master:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.resourcemanager.webapp.address master:8088 yarn.nodemanager.resource.memory-mb 1024
在slaves文件中添加
slave1 slave2 slave3
ldd
yum install -y wget wget http://ftp.gnu.org/gnu/glibc/glibc-2.14.tar.gz tar zxvf glibc-2.14.tar.gz cd glibc-2.14 mkdir build cd build ../configure --prefix=/usr/local/glibc-2.14 make make install ln -sf /usr/local/glibc-2.14/lib/libc-2.14.so /lib64/libc.so.6 ldd /home/hadoop/hadoop-2.6.0/lib/native/libhadoop.so.1.0.0
commit鏡像
docker commit master hadoop
啟動hadoop集群
docker rm master sudo docker run -it -p 50070:50070 -p 19888:19888 -p 8088:8088 -h master --name master hadoop /bin/bash sudo docker run -it -h slave1 --name slave1 hadoop /bin/bash sudo docker run -it -h slave2 --name slave2 hadoop /bin/bash sudo docker run -it -h slave3 --name slave3 hadoop /bin/bash
進入到每個節點執行
source /etc/profile service sshd start
每個節點配置hosts
查看IP地址 docker inspect --format="{{.NetworkSettings.IPAddress}}" master 配置hosts 172.42.0.42 master 172.42.0.46 slave1 172.42.0.47 slave2 172.42.0.48 slave3
啟動hadoop
./sbin/start-all.sh
查看
jps
參考:
http://blog.csdn.net/xu470438000/article/details/50512442 http://www.tashan10.com/yong-dockerda-jian-hadoopwei-fen-bu-shi-ji-qun/ http://www.thebigdata.cn/Hadoop/30208.html http://www.cnblogs.com/songfy/p/4716431.html
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/27097.html
摘要:總之,項目還算很受歡迎吧,這篇博客將介紹項目的升級版。一項目介紹將打包到鏡像中,就可以快速地在單個機器上搭建集群,這樣可以方便新手測試和學習。之前的版本使用為集群提供服務,由于網絡功能更新,現在并不需要了。運行參考第二部分啟動,并運行。 摘要: kiwenlau/hadoop-cluster-docker是去年參加Docker巨好玩比賽開發的,得了二等獎并贏了一塊蘋果手表,目前這個項目...
閱讀 954·2019-08-30 14:24
閱讀 987·2019-08-30 14:13
閱讀 1798·2019-08-29 17:21
閱讀 2658·2019-08-29 13:44
閱讀 1653·2019-08-29 11:04
閱讀 438·2019-08-26 10:44
閱讀 2564·2019-08-23 14:04
閱讀 908·2019-08-23 12:08