摘要: 本篇文章針對機器學習表現的改善上整理出以下對策整理
1. 檢查輸入數據
檢查你輸入網絡的數據是否正確。舉個例子,我好幾次把圖像的長和寬搞混了。有時候,我一不小心全部輸入的都是0。有時候,我把同一個批次的數據用了一遍又一遍。所以,打印顯示你想要的輸入和輸出,確保數據正確。
2. 試試隨機輸入
試試輸入隨機數據而非真實數據,看看是不是會得到一樣的錯誤。如果是的話,那你的網絡肯定是某一個點出錯了,可以試試一層層、一個指令一個指令地調試,看看是哪個點出了錯。
3. 檢查數據導入
可能你的數據是對的,但是用來導入數據到網絡的代碼可能有問題。在任何動作之前,把第一層的數據打印出來看看。
4. 確保輸入和輸出相連
檢查一下是不是輸入樣本都有正確的標籤。再把輸入數據打亂,看看輸出標籤是不是也會打亂。
5. 輸入和輸出之間的關係是不是太隨機
可能輸入和輸出之間的非隨機部分,與隨機部分相比太少了,例如股票就是這樣。換句話說,輸入和輸出之間的關聯不夠。對於這一點沒有萬全的辦法,因爲這得看數據的情況。
6. 數據庫中的噪音是否過多
我發生過這樣的錯誤,把一個食物網站的圖像弄壞了。錯誤的標籤太多,網絡沒法進行學習。手動檢查一些輸入樣本,看看標籤有沒有問題。
業界沒有統一的分水線,一篇論文曾在50%標籤錯誤的情況下,實現了高於50%的精度。
7. 打亂數據庫
如果數據庫沒有打亂,而是用標籤進行了排序,有可能會影響到網絡的學習。打亂數據庫的順序,防止這個問題。確保輸入和標籤一起打亂。
8. 減少類偏斜問題
A類圖像是不是比B類多出了一千倍?那你得平衡你的損失函數,或者嘗試其他類偏斜問題的解決方法。
9. 你有足夠的訓練例子嗎?
如果你從零訓練一個神經網絡,也就是說,沒有經過調試,你可能需要很多的數據。對於數據分類問題,很多人說每一類都需要一千個、甚至更多的圖像。
10. 確保一個批次的數據裏不包含單一標籤
在經過排序的數據庫中可能出現這個問題,例如,一萬個樣本包含同一個類別。這個很好解決,只要打亂排序就好了。
11. 減少mini-batch大小
一篇論文指出,一個非常大的mini-batch會減少模型泛化的能力。
增補1:使用標準數據庫(例如mnist和cifar10)
測試新的神經網絡架構或者寫新代碼的時候,首先使用標準數據庫,而非你自己的數據。這是因爲這些數據庫有很多參考結果,都是可以解決的。這樣就防止了以下的問題:標籤噪音、訓練/測試分佈差別、數據庫比較困難等等。
二、數據歸一化/增強
12、把特徵歸一化
你把輸入歸一化了爲平均值爲0且方差爲1了嗎?
13、數據增強是否過度
增強帶有歸一化的效果。過度增強會帶來其他形式的歸一化(weight L2、Dropout 等等),可能導致網絡調試不足。
14、檢查預訓練模型的預調試
如果你使用的是預訓練模型,訓練的時候一定要使用跟模型相同的歸一化和預處理。例如,圖像像素應該在哪個範圍內,[0,1]、[-1,1]還是[0,255]?
15、檢查訓練/驗證/測試數據庫
「...任何預處理數據,例如數據平均值,都必須只在訓練數據中計算,然後應用到驗證/測試數據上。舉個例子,計算平均數,然後從數據庫的每一個圖像中減掉平均值,再將數據庫分割爲訓練/驗證/測試數據,這樣就錯了。」
另外,還需要在每一個樣本或者批次中檢查不同的預處理。
三、執行問題
16. 把大問題變成小問題
這有助於定位問題出在哪兒。舉個例子,如果目標輸出是一個目標類別或者座標,可以將預測僅限於目標類別。
17. 「隨機」尋找正確的損失
還是來自於傑出的 CS231n:以小參數開始,不用歸一化。例如,如果我們有10個類別,隨機意味着我們只有十分之一的時候能獲得正確類別,而且 Softmax 損失是正確類別的負對數概率:-ln(0.1) = 2.302。
然後,試試增加歸一化的強度,應該能增加損失函數。
18. 查一查你的損失函數
如果你執行自己的損失函數,檢查一下有沒有問題,增加單元測試。我的損失函數經常有些細小的錯誤,導致神經網絡的運行出現細微的偏差。
19. 確認損失輸入
如果你使用自己框架下的損失函數,一定要注意,輸入給它的數據得符合其預期。例如,在 PyTorch 裏我會混淆 NLLLoss 和 CrossEntropyLoss,這就犯了錯,因爲前者需要 softmax 輸入,而後者則不需要。
20. 調整損失權重
如果你的損失函數由若干個較小的損失函數構成,它們之間的相對大小必須正確。這可能需要測試不同損失權重的組合。
21. 監測其他度量
有時候,損失函數沒法最好地預測神經網絡的訓練是否良好。如果可以的話,使用精度等其他度量。
22. 測試任何定製層
神經網絡裏,你有沒有自己執行任何的層?重複檢查,確保它們運行正常。
23. 檢查「凍結」層或者變量
檢查一下是否不經意間,你解除了一些層或者變量的梯度更新,沒能及時獲得信息。
24. 增加網絡大小
可能你的神經網絡的表達力太小,不能描述目標函數。試試在完全聯接的層中,增加更多的層或者隱藏單元。
25. 檢查隱藏維度錯誤
如果你的輸入類似(k, H, W) = (64, 64, 64),很容易忽視跟錯誤維度有關的漏洞。在輸入維度使用特別的數字(例如在每一個維度都使用質數),檢查它們如何在網絡中傳播。
26. 嘗試梯度檢查
如果你手動執行梯度下降,梯度檢查能確保反向傳播運行正常。
四、訓練問題
27. 用很小很小的數據庫
用一個很小的數據庫子集用於調試,確保運行正常。例如,只用一兩個例子進行訓練,看你的神經網絡能否學會區分這些例子。然後再在每一個類型增加例子。
28. 檢查權重初始化
如果不確定的話,初始化就用 Xavier 或者 He。另外,初始化有可能導致一個錯誤的區域最小值,所以要嘗試幾個不同的初始化方法,看看有沒有用。
29. 改變超參數
可能你用的超參數組有問題。如果可能的話,試試網格搜索。
30. 減少歸一化
過度歸一化可能讓網絡無法調試。減少一些歸一化,例如 dropout、批次常規、weight / bias L2 歸一化,等等。Jeremy Howard 在其傑出的課程「程序員深度學習實操」中,建議首先排除欠擬合。這意味着你必須充足地優化訓練數據,然後再去處理過度優化的問題。
31. 交給時間
可能你的神經網絡需要更多時間來訓練,才能做出有意義的預測。如果你的損失在穩健降低,那就再讓它多訓練一段時間。
32. 從訓練模式轉化爲測試模式
一些帶有 Batch Norm、Dropout 等其他層的框架,在訓練和測試的時候表現不同。轉換到合適的模式有助於神經網絡有效地預測。
33. 將訓練視覺化
- 監測每一層的初始化、權重和更新。確保它們的強度互相匹配。例如,參數更新的強度應該爲1-e3。
- 考慮 Tensorboard 和 Crayon 等視覺化庫。簡單來說,你還可以打印輸出權重、偏壓或者初始化。
- 注意層初始化的平均值有沒有大大超過0. 可以試試 Batch Norm 或者 ELU。
- 對於權重和偏壓的柱狀圖,網友 Deeplearning4j 這樣說道:
「關於權重,柱狀圖一段時間以後應該大致是一個高斯(正態)分佈。關於偏壓,柱狀圖基本上是從0開始,通常最後也會接近高斯分佈(長短期記憶網絡則是一個例外)。要留心趨近於正/負無窮的參數。要留心變得非常大的偏壓。如果類別分佈非常不平衡,這有時候就會發生在分類中的輸出層。」
- 檢查層更新,它們應該是高斯分佈。
34. 試試不同的優化器
你選的優化器應該不會妨礙神經網絡的訓練,除非你選的超參數特別有問題。但是,適合某一任務的優化器有助於在最短的時間內完成最多的訓練。看看介紹算法的論文,裏面應該說名該使用什麼優化器。如果沒有說的話,我傾向於使用 Adam 或者就用帶有 momentum 的 SGD。
35. 梯度消失與梯度爆炸
- 檢查層更新,因爲很大的值意味着梯度爆炸。梯度剪裁可能有用。
- 檢查層初始化。網友 Deeplearning4j 提供了很好的指引:「對於初始化,好的標準方差是在0.5到2.0的範圍內。如果遠遠超出了這個範圍,可能就是消失或者爆炸初始化。」
36. 增加或減少學習率
如果學習率低,模型的收斂會非常地慢。
如果學習率高,開始的損失會很快減少,但是可能很難找到一個滿意的答案。
可以拿你現在的學習率做一些小改動試試,乘以0.1或乘以10。
37. 消除NaN
訓練循環神經網絡時,如果看到NaN就問題大了。解決辦法包括:
- 減少學習率,尤其是如果前一百次迭代就出現NaN的話。
- 如果計算中包含除以0、求0或負數的自然對數,就會出現NaN。
- 一層層地檢查神經網絡,看看NaN是從哪兒出來的。
轉貼自: 壹讀
留下你的回應
以訪客張貼回應