摘要:線下評(píng)估策略通常在數(shù)據(jù)競(jìng)賽中,參賽者是不能將全部數(shù)據(jù)都用于訓(xùn)練模型的,因?yàn)檫@會(huì)導(dǎo)致沒有數(shù)據(jù)集對(duì)該模型的效果進(jìn)行線下驗(yàn)證。當(dāng)時(shí),也就是折交叉驗(yàn)證,被稱作留一驗(yàn)證。率也叫真正例率,率也叫假正例率,注意區(qū)別于準(zhǔn)確率和召回率。
通常在數(shù)據(jù)競(jìng)賽中,參賽者是不能將全部數(shù)據(jù)都用于訓(xùn)練模型的,因?yàn)檫@會(huì)導(dǎo)致沒有數(shù)據(jù)集對(duì)該模型的效果進(jìn)行線下驗(yàn)證。為了解決這一問題,就要考慮如何對(duì)數(shù)據(jù)進(jìn)行劃分,構(gòu)建合適的線下驗(yàn)證集。針對(duì)不同類型的問題,需要不同的線下驗(yàn)證方式,在此分為強(qiáng)時(shí)序性和弱時(shí)序性。
對(duì)于含有明顯時(shí)間序列因素的賽題,可將其看作強(qiáng)時(shí)間序行問題,即線上數(shù)據(jù)的時(shí)間都在離線數(shù)據(jù)集之后,這種情況下就可以采用時(shí)間上最接近測(cè)試集的數(shù)據(jù)做驗(yàn)證集
例如,天池平臺(tái)上的“乘用車零售量預(yù)測(cè)”競(jìng)賽,初賽提供 2012 年 1 月至 2017 年 10 月車型銷售數(shù)據(jù),需要參賽者預(yù)測(cè) 2017 年 11 月的車型銷售數(shù)據(jù)。這是一個(gè)很明顯的含時(shí)間序列因素的問題,那么我們可以選擇數(shù)據(jù)集的最后一個(gè)月作為驗(yàn)證集。
這類問題的驗(yàn)證方式主要為 K 折交叉驗(yàn)證,根據(jù) K 的取值不同,會(huì)衍生出不同的交叉驗(yàn)證方式,具體如下。
下面給出通用的交叉驗(yàn)證代碼,具體代碼如下:
from sklearn.model_selection import KFoldNFOLDS = 5folds = KFold(n_splits=NFOLDS, shuffle=True, random_state=2021)for trn_idx, val_idx in folds.split(X_train, y): train_df, train_label = X_train.iloc[trn_idx, :], y[trn_idx] valid_df, valid_label = X_train.iloc[val_idx, :], y[val_idx]
在分類問題中,錯(cuò)誤率是分類結(jié)果錯(cuò)誤的樣本數(shù)占樣本總數(shù)的比例,精度則是分類結(jié)果中正確的樣本總數(shù)的比例。
假設(shè)一個(gè)腫瘤患病問題,患腫瘤的概率為0.5%,概率很小,對(duì)于這樣一個(gè)一邊概率遠(yuǎn)大于另一邊的我們稱為傾斜分類skewed class.
如果我們?nèi)匀徊捎胊ccuracy來(lái)衡量這樣的問題,那么對(duì)于一個(gè)始終預(yù)測(cè)y=0的模型,它預(yù)測(cè)上面的腫瘤問題的錯(cuò)誤率也僅僅是0.5%.
Accuracy = (true positives + true negatives) / (total examples)
為此,我們引入Precision和Recall 如下所示:
此時(shí),如果我們用Precision和Recall去評(píng)判剛剛y=0的模型,那么結(jié)果都是0
一般而言,Precision和Recall的圖像不固定,不過都呈現(xiàn)上圖中的趨勢(shì)。
當(dāng)我們?cè)O(shè)高閾值時(shí),我們得到的預(yù)測(cè)結(jié)果中得到腫瘤的概率也就越大因而Precision越高,不過可能漏掉一部分腫瘤的可能也越大從而Recall越高。
F1-score是權(quán)衡Precision和Recall后給出的一個(gè)評(píng)判模型的式子
F 1 = P R P + R F_1 = /frac{PR}{P+R} F1?=P+RPR?
ROC 曲線用于繪制采用不同分類閾值時(shí)的 TP 率(TPR)與 FP 率(FPR)。我們根據(jù)學(xué)習(xí)器的預(yù)測(cè)結(jié)果,把閾值從0變到最大,即剛開始是把每個(gè)樣本作為正例進(jìn)行預(yù)測(cè),隨著閾值的增大,學(xué)習(xí)器預(yù)測(cè)正樣例數(shù)越來(lái)越少,直到最后沒有一個(gè)樣本是正樣例。
TP率也叫真正例率,F(xiàn)P率也叫假正例率,注意區(qū)別于準(zhǔn)確率和召回率。
T P R = T P T P + F N TPR = /frac{TP}{TP+FN} TPR=TP+FNTP?
F P R = F P F P + T N FPR = /frac{FP}{FP+TN} FPR=FP+TNFP?
AUC是一個(gè)極常用的評(píng)價(jià)指標(biāo),它定義為 ROC 曲線下的面積。之所以使用 AUC 作為評(píng)價(jià)指標(biāo),是因?yàn)镽OC 曲線在很多時(shí)候并不嗯呢該清晰地說(shuō)明哪個(gè)分類器的效果更好,而 AUC 作為一個(gè)數(shù)值,其值越大就代表分類器的效果越好。
? ln ? L ( w , b ) = ∑ i n ∑ k m ? y ^ k i ln ? f w , b ( x k i ) -/ln{L(w,b)} = /sum_{i}^{n}/sum_{k}^{m}-/hat{y}_k^i/ln{f_{w,b}(x^i_k)} ?lnL(w,b)=i∑n?k∑m??y^?ki?lnfw,b?(xki?)
其在二分類問題上的表現(xiàn)形式為:
? ln ? ( w , b ) = ∑ i n ? [ y ^ i ln ? f w , b ( x i ) + ( 1 ? y ^ i ) ln ? ( 1 ? f w , b ( x i ) ) ] -/ln{(w,b)} = /sum_{i}^{n}-[/hat{y}^{i}/ln{f_{w,b}(x^i)}+ (1-/hat{y}^{i})/ln{(1-f_{w,b}(x^i))}] ?ln(w,b)=i∑n??[y^?ilnfw,b?(xi)+(1?y^?i)ln(1?fw,b?(xi))]
舉個(gè)栗子,假設(shè)我們的一個(gè)sample經(jīng)過softmax后得到的 y = f w , b ( x ) = [ 0.9 0.1 ] y=f_{w,b}(x)=/begin{bmatrix} 0.9 // 0.1// /end{bmatrix}/quad y=fw,b?(x)=[0.90.1?],其label為 y ^ = [ 1 0 ] /hat{y}=/begin{bmatrix} 1 // 0// /end{bmatrix}/quad y^?=[10?],那么在第一個(gè)式子里計(jì)算出的值為 ? ( 1 ln ? 0.9 + 0 ln ? 0.1 ) = ? ln ? 0.9 -(1 /ln0.9+0/ln{0.1})=-/ln0.9 ?(1ln0.9+0ln0.1)=?ln0.9,第二計(jì)算結(jié)果即為 ? ln ? 0.9 ? 0 ln ? 0.1 -/ln0.9-0/ln0.1 ?ln0.9?0ln0.1。再比方說(shuō),我們的另一個(gè)sample經(jīng)過softmax后得到的 y = f w , b ( x ) = [ 0.1 0.8 0.1 ] y=f_{w,b}(x)=/begin{bmatrix} 0.1 // 0.8 // 0.1// /end{bmatrix}/quad y=fw,b?(x)=???0.10.80.1????,其label為 y ^ = [ 0 1 0 ] /hat{y}=/begin{bmatrix} 0 // 1 // 0// /end{bmatrix}/quad y^?=???010????,此時(shí)我們有 ? ln ? L ( w , b ) = ? 0 ln ? 0.1 ? 1 ln ? 0.8 ? 0 ln ? 0.1 = ? ln ? 0.8 -/ln{L(w,b)}=-0/ln0.1-1/ln{0.8}-0/ln0.1=-/ln0.8 ?lnL(w,b)=?0ln0.1?1ln0.8?0ln0.1=?ln0.8
像上面這樣我們?nèi)绻袃蓚€(gè)distribution的點(diǎn) y ^ /hat{y} y^?和 y y y,我們記他們的交叉熵即為 H ( y ^ , y ) = ? ∑ k y ^ k ln ? y k H(/hat{y},y)=-/sum/limits_{k}/hat{y}_k/ln{y_k} H(y^?,y)=?k∑?y^?k?lnyk?.
cross entropy交叉熵的含義是表達(dá)著兩個(gè)distribution有多接近,如果這兩個(gè)點(diǎn)的distribution一模一樣的話,那它們計(jì)算出來(lái)的cross entropy就是0,用在我們這里的分類問題中,我們就是希望 y ^ /hat{y} y^?與 y y y越接近越好。
回歸指標(biāo) | 計(jì)算公式 |
---|---|
MSE | 1 m ∑ i = 1 n ( y ? y ^ ) 2 /frac{1}{m}/sum/limits_{i=1}^{n}(y - /hat{y})^2
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。 轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/124103.html 相關(guān)文章
發(fā)表評(píng)論0條評(píng)論EddieChan男|高級(jí)講師TA的文章閱讀更多
閱讀需要支付1元查看
|