国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Hive將UDF編譯到源碼中(idea)

forrest23 / 1223人閱讀

摘要:有時(shí)候需要改寫源碼,比如將常用的某個(gè)放在源碼中,啟動(dòng)即可使用。所以推薦使用來(lái)完成改源碼的操作,好處不言而喻。這是因?yàn)樵诃h(huán)境不能執(zhí)行。同名文件夾是這個(gè)包解壓后的文件夾,上傳到可直接使用,免解壓。

有時(shí)候需要改寫源碼,比如將常用的某個(gè)UDF放在源碼中,啟動(dòng)即可使用。在Linux上直接改寫源碼是很容易出錯(cuò)的,因?yàn)関im沒有檢測(cè)提示,直到打包時(shí)過了很久才報(bào)錯(cuò),并找到日志才發(fā)現(xiàn)是哪里寫錯(cuò)了,而且提示的也不清楚。所以推薦使用idea來(lái)完成改源碼的操作,好處不言而喻。

1.下載解壓hive源碼,用idea打開為Maven項(xiàng)目(jdk1.8),這時(shí)所有的依賴就會(huì)自動(dòng)下載

2.將寫好的UDF的java代碼放在org.apache.hadoop.hive.ql.udf包下

3.在org.apache.hadoop.hive.ql.exec.FunctionRegistry類中靜態(tài)代碼塊添加注冊(cè)

4.Maven打包

1)點(diǎn)掉tests,相當(dāng)于-DskipTests=true

2)命令行添加-e,可以輸出錯(cuò)誤棧信息


3)Profiles填寫hadoop-2 dist,相當(dāng)于-Phadoop-2,dist(如上圖)

運(yùn)行報(bào)錯(cuò):

Caused by: java.io.IOException: Cannot run program "bash" (in directory "F:IdeaProjectshive-1.1.0-cdh5.7.0common"): CreateProcess error=2, 系統(tǒng)找不到指定的文件。

這是因?yàn)樵赪indows環(huán)境不能執(zhí)行bash。那么需要能執(zhí)行bash環(huán)境,有一個(gè)神器:Git
安裝git后,打開Git Bash,即可在Windows系統(tǒng)中執(zhí)行Linux命令了!
cd到hive源碼項(xiàng)目根目錄,執(zhí)行mvn -e clean package -Phadoop-2,dist -DskipTests=true

注意事項(xiàng):需要配置Maven環(huán)境變量,并且一定要寫%M2_HOME%而非%MAVEN_HOME%

編譯成功后,在項(xiàng)目根目錄下的packaging/target下會(huì)生成tar包和一個(gè)同名文件夾,如下圖。同名文件夾是這個(gè)tar包解壓后的文件夾,上傳到Linux可直接使用,免解壓。

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/74291.html

相關(guān)文章

  • Spark SQL知識(shí)點(diǎn)與實(shí)戰(zhàn)

    摘要:是最新的查詢起始點(diǎn),實(shí)質(zhì)上是和的組合,所以在和上可用的在上同樣是可以使用的。轉(zhuǎn)換為轉(zhuǎn)換為其實(shí)就是對(duì)的封裝,所以可以直接獲取內(nèi)部的注意此時(shí)得到的存儲(chǔ)類型為是具有強(qiáng)類型的數(shù)據(jù)集合,需要提供對(duì)應(yīng)的類型信息。Spark SQL概述1、什么是Spark SQLSpark SQL是Spark用于結(jié)構(gòu)化數(shù)據(jù)(structured data)處理的Spark模塊。與基本的Spark RDD API不同,Sp...

    番茄西紅柿 評(píng)論0 收藏2637
  • Spark SQL知識(shí)點(diǎn)大全與實(shí)戰(zhàn)

    摘要:本文發(fā)于我的個(gè)人博客知識(shí)點(diǎn)大全與實(shí)戰(zhàn)我正在大數(shù)據(jù)技術(shù)派和朋友們討論有趣的話題,你也來(lái)加入吧概述什么是是用于結(jié)構(gòu)化數(shù)據(jù)處理的模塊。是最新的查詢起始點(diǎn),實(shí)質(zhì)上是和的組合,所以在和上可用的在上同樣是可以使用的。 關(guān)注公眾號(hào):大數(shù)據(jù)技術(shù)派,回復(fù)資料,領(lǐng)取1000G資料。本文發(fā)于我的個(gè)人博客:Spark SQL知識(shí)點(diǎn)大全...

    番茄西紅柿 評(píng)論0 收藏2637
  • OPPO數(shù)據(jù)臺(tái)之基石:基于Flink SQL構(gòu)建實(shí)數(shù)據(jù)倉(cāng)庫(kù)

    摘要:實(shí)際上,本身就預(yù)留了與外部元數(shù)據(jù)對(duì)接的能力,分別提供了和這兩個(gè)抽象。對(duì)接外部數(shù)據(jù)源搞清楚了注冊(cè)庫(kù)表的過程,給我們帶來(lái)這樣一個(gè)思路如果外部元數(shù)據(jù)創(chuàng)建的表也能被轉(zhuǎn)換成可識(shí)別的,那么就能被無(wú)縫地注冊(cè)到。 本文整理自 2019 年 4 月 13 日在深圳舉行的 Flink Meetup 會(huì)議,分享嘉賓張俊,目前擔(dān)任 OPPO 大數(shù)據(jù)平臺(tái)研發(fā)負(fù)責(zé)人,也是 Apache Flink contrib...

    jeffrey_up 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<