網(wǎng)易伏羲預(yù)訓(xùn)練模型“玉言”登頂CLUE分類榜單,成績(jī)首次超過人類水平

1月17日,網(wǎng)易伏羲的“玉言”系列模型在CLUE分類任務(wù)排行榜中超越其他模型,榮登榜單第一。在CLUE1.1分類任務(wù)排行榜(包含AFQMC[文本相似度]、TNEWS[短文本分類]、IFLYTEK[長(zhǎng)文本分類]、OCNLI[自然語言推理]、WSC[代詞消歧]、CSL[關(guān)鍵詞識(shí)別]6個(gè)理解任務(wù))上首次超過人類水平。

作為中文語言理解領(lǐng)域最具權(quán)威性的測(cè)評(píng)基準(zhǔn)之一,CLUE榜單在學(xué)術(shù)界及工業(yè)界有著深遠(yuǎn)影響。此次「玉言」成功登頂 CLUE分類任務(wù)榜,是網(wǎng)易伏羲在中文文本預(yù)訓(xùn)練領(lǐng)域又一重要里程碑。值得一提的是,一年前網(wǎng)易伏羲的“玉言”系列模型也曾登頂CLUE推出的中文小樣本學(xué)習(xí)評(píng)測(cè)榜單FewCLUE。

"玉言“是網(wǎng)易伏羲自主研發(fā)的中文文本預(yù)訓(xùn)練大模型系列,這次登頂CLUE分類任務(wù)榜單的模型參數(shù)達(dá)到110億,結(jié)構(gòu)由深層 Encoder 和淺層 Decoder 組成,這種結(jié)構(gòu)可以使得大模型具有優(yōu)秀理解能力的同時(shí),也有著較為優(yōu)秀的生成能力。除此之外,Encoder-Decoder結(jié)構(gòu)方便訓(xùn)練任務(wù)的設(shè)計(jì),不需要復(fù)雜的掩碼策略。其預(yù)訓(xùn)練數(shù)據(jù)包括網(wǎng)易自有高質(zhì)量數(shù)據(jù)、各類百科、新聞、社區(qū)問答、wiki、小說等等;網(wǎng)易伏羲對(duì)收集到的數(shù)據(jù)進(jìn)行去重,清洗,產(chǎn)出了大量高質(zhì)量數(shù)據(jù),并采用這些數(shù)據(jù)訓(xùn)練模型,使得模型具有良好的泛化性,在各類任務(wù)上都有著出色的性能。

網(wǎng)易伏羲在"玉言“模型的訓(xùn)練中,采用多任務(wù)訓(xùn)練框架對(duì)模型Encoder和Decoder進(jìn)行訓(xùn)練。為了提升模型的語義表示能力,同時(shí)讓模型更好的理解不同長(zhǎng)度的文本信息,提出了不同的預(yù)訓(xùn)練策略來幫助模型學(xué)習(xí):

1. 掩碼策略:掩碼[MASK]將句子中的詞進(jìn)行掩蓋,讓模型還原被掩蓋的詞語,提升模型對(duì)詞語的語義表示能力;

2. Word Shift 策略:通過打亂中文詞語里單字的順序,讓模型對(duì)其進(jìn)行還原,從而提升模型對(duì)中文詞語表達(dá)的關(guān)注能力,增強(qiáng)對(duì)中文詞語的敏感性;

3. Short Sentence Reorder 策略:通過打亂出現(xiàn)在句子中的短句,再讓模型還原以提升模型對(duì)句子語義的理解;

4. Word/Sentence Deleted 策略:刪除句子中的單詞或整句后再讓模型進(jìn)行還原,以提升模型對(duì)不同長(zhǎng)度的文本的語義表示能力;

網(wǎng)易伏羲的大規(guī)模預(yù)訓(xùn)練相關(guān)工作由網(wǎng)易高級(jí)副總裁、網(wǎng)易雷火事業(yè)群總裁胡志鵬牽頭主持,并且入選2022年度浙江省科技計(jì)劃項(xiàng)目--“尖兵”項(xiàng)目。自研模型規(guī)模從最早的一億參數(shù)增長(zhǎng)至千億參數(shù),模型領(lǐng)域從文本拓展到圖文、音樂、行為序列等多種模態(tài),積累了豐富的預(yù)訓(xùn)練模型訓(xùn)練和工程優(yōu)化的經(jīng)驗(yàn)。相關(guān)技術(shù)也已經(jīng)應(yīng)用在網(wǎng)易集團(tuán)內(nèi)的文字游戲、智能NPC、文本輔助創(chuàng)作、音樂輔助創(chuàng)作、美術(shù)設(shè)計(jì)、互聯(lián)網(wǎng)搜索推薦等業(yè)務(wù)場(chǎng)景,并取得了顯著的業(yè)務(wù)效果。

另外,網(wǎng)易伏羲參與了中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟組織的大規(guī)模預(yù)訓(xùn)練模型技術(shù)的應(yīng)用評(píng)估方法編寫,并且在由中國(guó)信息通信研究院、人工智能關(guān)鍵技術(shù)和應(yīng)用評(píng)測(cè)工業(yè)和信息化部重點(diǎn)實(shí)驗(yàn)室等機(jī)構(gòu)發(fā)起的2022可信AI峰會(huì)上,網(wǎng)易伏羲的大模型應(yīng)用「 LOFTER-AI 寫文」和「傀儡戲-互動(dòng)式文字游戲」同時(shí)入選“2022大規(guī)模預(yù)訓(xùn)練模型優(yōu)秀應(yīng)用案例”,在大模型技術(shù)及AI實(shí)踐領(lǐng)域獲行業(yè)認(rèn)可。

網(wǎng)易伏羲作為國(guó)內(nèi)專業(yè)從事游戲與泛娛樂AI研究和應(yīng)用的頂尖機(jī)構(gòu),未來會(huì)在大規(guī)模預(yù)訓(xùn)練模型領(lǐng)域持續(xù)探索,并結(jié)合有靈機(jī)器人眾包能力,引入“人”的決策及數(shù)據(jù)閉環(huán),進(jìn)一步提升大模型的能力。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2023-01-17
網(wǎng)易伏羲預(yù)訓(xùn)練模型“玉言”登頂CLUE分類榜單,成績(jī)首次超過人類水平
1月17日,網(wǎng)易伏羲的“玉言”系列模型在CLUE分類任務(wù)排行榜中超越其他模型,榮登榜單第一。在CLUE1.1分類任務(wù)排行榜(包含AFQMC[文本相似度]、TNEWS[短文本分類]、IFLYTEK[長(zhǎng)文本分類]、OCNLI[自然語言推理]、W

長(zhǎng)按掃碼 閱讀全文