雷鋒網(wǎng)消息,在10月10日-11日在加拿大蒙特利爾召開的Rework Deep Learning Summit會(huì)議上,百度高級研究員Greg Diamos介紹了由百度硅谷AI實(shí)驗(yàn)室(SVAIL)與NVIDIA合作的最新成果:一種名為“混合精度訓(xùn)練”(Mixed Precision Training,簡稱MPT)的深度學(xué)習(xí)模型。
Greg Diamos在Rework Deep Learning Summit上演講中。
據(jù)了解,大多數(shù)的深度學(xué)習(xí)模型使用的是32位單精度浮點(diǎn)數(shù)(FP32)來進(jìn)行訓(xùn)練,而混合精度訓(xùn)練的方法則通過16位浮點(diǎn)數(shù)(FP16)進(jìn)行深度學(xué)習(xí)模型訓(xùn)練,從而減少了訓(xùn)練深度學(xué)習(xí)模型所需的內(nèi)存,同時(shí)由于FP16的運(yùn)算比FP32運(yùn)算更快,從而也進(jìn)一步提高了硬件效率。
通過用半精度運(yùn)算替代全精度運(yùn)算來提高效率,這一技術(shù)原理聽起來很簡單明了,但將其付諸實(shí)施并不像聽起來那么簡單。此前也有團(tuán)隊(duì)嘗試過使用更低精度進(jìn)行混合計(jì)算(如二進(jìn)制,甚至4-bit),但問題在于這往往不可避免地造成結(jié)果的準(zhǔn)確性和在主要網(wǎng)絡(luò)變換上的損失,而百度的MPT模型不僅解決了這一問題,更重要的是MPT無需改變網(wǎng)絡(luò)超參數(shù)(雷鋒網(wǎng)(公眾號(hào):雷鋒網(wǎng))注:超參數(shù)指Bayes統(tǒng)計(jì)理論先驗(yàn)分布的參數(shù), 它不像其他的參數(shù)可以用統(tǒng)計(jì)量估計(jì)),并保持與單精度相同的準(zhǔn)確性。
在百度研究院博客中,百度進(jìn)一步解釋了這一模型的原理:
深度學(xué)習(xí)模型由各種層(Layer)組成,包括完全連接的層,卷積層和反復(fù)層。層與層之間的轉(zhuǎn)換可以通過通用矩陣乘法(GEMM)來實(shí)現(xiàn),而對深度學(xué)習(xí)訓(xùn)練的過程其實(shí)很大程度是GEMM計(jì)算的過程。
如下圖所示,GEMM操作可以分解為若干個(gè)幾個(gè)乘法運(yùn)算和后續(xù)的加法運(yùn)算。
當(dāng)使用FP16代表神經(jīng)網(wǎng)絡(luò)中的數(shù)據(jù)時(shí),GEMM操作的輸入矩陣由16位數(shù)組成。我們需要可以使用16位計(jì)算執(zhí)行乘法的硬件,但是需要使用32位計(jì)算和存儲(chǔ)來執(zhí)行加法。使用少于32位的加法操作訓(xùn)練大型深度學(xué)習(xí)模型會(huì)非常困難。
為此,百度不僅與NVIDIA共同解決了硬件支持的問題,雙方還對訓(xùn)練流程進(jìn)行了一些修改,模型中的輸入,權(quán)重,梯度和激活以FP16格式表示。但是如之前介紹,與FP32數(shù)字相比,半精度數(shù)字的范圍有限,只是通過簡單地更改存儲(chǔ)格式,某些模型無法達(dá)到與單精度相同的精度。為此,NVIDIA和百度采用了兩種關(guān)鍵技術(shù):
第一項(xiàng)關(guān)鍵技術(shù)被稱為“混合精密鑰匙”(mixed precision key)。如下圖所示,在MT模型中仍然保留FP32格式的主副本,將FP16用于正向和反向傳播,優(yōu)化器中的梯度更新將被添加到主FP32副本當(dāng)中,該FP32副本被簡化為一個(gè)FP16副本在訓(xùn)練期間使用,這個(gè)過程在每次訓(xùn)練迭代中重復(fù),直至模型收斂且足以恢復(fù)損失的精度,從而達(dá)到較低內(nèi)存使用、內(nèi)存帶寬壓力更低和更快速執(zhí)行的優(yōu)點(diǎn)。
深度學(xué)習(xí)模型的混合精度訓(xùn)練示意圖
第二種關(guān)鍵技術(shù)則是“損耗縮放”(loss-scaling)。該技術(shù)可以夠恢復(fù)一些小數(shù)值的梯度。在訓(xùn)練期間,一些權(quán)重梯度具有非常小的指數(shù),其FP16格式可能會(huì)變?yōu)榱恪榱丝朔@個(gè)問題,我們使用縮放因子在反向傳播開始時(shí)縮放損失,通過連鎖規(guī)則,梯度也逐漸擴(kuò)大,并在FP16中可表示。在將其更新應(yīng)用于權(quán)重之前,梯度確實(shí)需要縮小;而為了恢復(fù)某些型號(hào)的精度損失,必須進(jìn)行損耗調(diào)整。關(guān)于這兩種技術(shù)的更多細(xì)節(jié)可以在我們的論文中找到。
百度已使用這種方法使用FP16訓(xùn)練其DeepSpeech 2模型。結(jié)果表明,對于英文和普通話模型和數(shù)據(jù)集和使用相同的超參數(shù)、模型架構(gòu)進(jìn)行混合精度訓(xùn)練實(shí)驗(yàn),可以得到到FP32訓(xùn)練的精度。
同時(shí),使用FP16訓(xùn)練減少了深度學(xué)習(xí)模型的內(nèi)存需求,使得百度能夠使用一半的處理器來訓(xùn)練這些模型,從而有效地加倍了集群大小。此外,F(xiàn)P16算術(shù)的峰值性能(如上所述)通常高于單精度計(jì)算。
- 蘋果CEO幕后運(yùn)作,庫克是如何說服特朗普豁免關(guān)稅的?
- 華為智能門鎖2亮相:解鎖新體驗(yàn),掌靜脈識(shí)別+超清貓眼,安全又便捷,僅售2499元!
- 華為智慧屏新品發(fā)布:智慧與顏值并存,國補(bǔ)后僅售3999.2元起
- 綠米Aqara智能溫控器W400新上市:三合一設(shè)備接入,雙協(xié)議支持,物超所值的智能家居新選擇!
- 華為新智能門鎖:掌靜脈識(shí)別解鎖,安全守護(hù)升級,4月16日預(yù)售等你來!
- 華為智能眼鏡2代:鈦空圓框與光學(xué)鏡完美融合,售價(jià)2299元,科技與時(shí)尚的完美結(jié)合?
- OPPO新款智能手表:小巧實(shí)用,行業(yè)首出發(fā)出安全守護(hù),僅售1529元起
- 蘋果WatchOS 12升級:iPhone依賴型智能功能Apple Intelligence來襲,讓智能手表更聰明!
- 小米米家空調(diào)Pro人感上風(fēng)出新玩法:毫米波雷達(dá)科技,3999元感受智能新體驗(yàn)
- 小米新款智能嵌入式洗碗機(jī)開售:消存一體解決洗碗難題,國補(bǔ)價(jià)5119.2元起,實(shí)用又高效
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。