摘要:如何安裝以我的為例,參照官網的這篇文章就可以解決。上安裝具體步驟為清理掉原有安裝的后添加密鑰添加源更新源然后直接安裝。點擊進去,就能看到連接好的啦,這里只有一個數據庫。
如何安裝docker
以我的ubuntu x86_64 16.04為例,參照docker官網的這篇文章就可以解決。ubuntu上安裝docker-ce
具體步驟為
清理掉原有安裝的docker后
sudo apt-get install apt-transport-https ca-certificates curl software-properties-common
添加密鑰
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
添加docker源
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"
更新apt-get源
sudo apt-get update
然后直接安裝。
sudo apt-get install docker-ce
安裝完成后,記得加上加速器,筆者用的是daocloud這家的docker加速器
如何安裝 hue直接去找 hue的官方鏡像 hue docker介紹
dao pull gethue/hue
等待鏡像裝載完成
如何安裝 hive筆者找到一個開箱即用的hive docker鏡像 -> github介紹
dao pull teradatalabs/cdh5-hive啟動 hive和 hue并連接兩者
筆者研究到的是一個非常簡單的辦法,首先啟動hive,直接以hadoop master啟動
sudo docker run -d --name hadoop-master -P -h hadoop-master teradatalabs/cdh5-hive
加個 -P是隨機端口映射 ,筆者偷懶了,啟動后,查看 hadoop master web界面及hive端口。
我這里找到docker 容器50070映射的機器端口,打開就可以看到管理的web界面了
(真的是開箱即用?。?/p>
查看 10000對應的機器端口是32775,那么只要在hue中修改 hive配置為32775就好了。
現在啟動hue
sudo docker run --name hue -d -p 8888:8888 gethue/hue
然后
sudo docker exec -it hue bash
進入hue container中,head desktop/conf/pseudo-distributed.ini
這個路徑就是hue的配置路徑,cp出來放到當前路徑下修改。
sudo docker cp hue:/hue/desktop/conf/pseudo-distributed.ini ./pseudo-distributed.ini
再cp回去
sudo docker cp ./pseudo-distributed.ini hue:/hue/desktop/conf/pseudo-distributed.ini
重啟hue
sudo docker restart hue
瀏覽器打開機器的8888端口,看到的是hue的界面,新建個賬號就進去啦。
點擊hive 進去,就能看到連接好的hive啦,這里只有一個default數據庫。
新建一個snippet 用hive官網給的示例愉快的玩hive吧!
hue還能操作很多其他的數據庫,筆者也在繼續研究,路過的覺得有幫助記得點贊或收藏呀!
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/27036.html
摘要:點擊創建集群按鈕開始創建集群資源點擊創建集群按鈕開始創建集群資源創建集群創建集群設置地域和可用區信息設置地域和可用區信息請根據您的需要,在創建集群向導中設置新集群所歸屬的地域及可用區信息。 集群創建本篇目錄開始創建集群資源開始部署集群服務和組件智能大數據平臺USDP集群的創建過程,分為兩個部分,即在公有云控制臺中,創建USDP的集群資源,待創建完成后,進入您獨享的USDP管理服務開始規劃并創...
摘要:創建任務創建任務選擇這個標簽拖動到中。頁面權限控制頁面權限控制頁面權限控制點擊管理用戶組選擇要修改的組名稱,設置相應權限并保存 Hue開發指南本篇目錄1. 配置工作流2. Hue頁面權限控制Hue是面向 Hadoop 的開源用戶界面,可以讓您更輕松地運行和開發 Hive 查詢、管理 HDFS 中的文件、運行和開發 Pig 腳本以及管理表。服務默認已經啟動,用戶只需要配置外網IP,在防火墻中配...
摘要:大數據框架服務角色介紹翻了一下最近一段時間寫的分享,發行版本下載安裝運行環境部署等相關內容幾乎都已經寫了一遍了。這些數據通常是由于吞吐量的要求而通過處理日志和日志聚合來解決。 大數據框架hadoop服務角色介紹翻了一下最近一段時間寫的分享,DKHadoop發行版本下載、安裝、運行環境部署等相關內容幾乎都已經寫了一遍了。雖然有的地方可能寫的不是很詳細,個人理解水平有限還請見諒吧!我記得在...
閱讀 1292·2023-04-26 01:03
閱讀 1906·2021-11-23 09:51
閱讀 3299·2021-11-22 15:24
閱讀 2662·2021-09-22 15:18
閱讀 1010·2019-08-30 15:55
閱讀 3456·2019-08-30 15:54
閱讀 2231·2019-08-30 15:53
閱讀 2386·2019-08-30 15:44