創(chuàng)新工場兩篇論文入選ACL2020 中文分詞和詞性標注新模型性能創(chuàng)新高

7月8日消息,全球自然語言處理領域(NLP)頂級學術(shù)會議 ACL 2020 今年在線舉辦,來自創(chuàng)新工場大灣區(qū)人工智能研究院的2篇論文入選,這兩篇論文均聚焦中文分詞領域。

這兩篇論文分別是《Improving Chinese Word Segmentation with Wordhood Memory Networks》和《Joint Chinese Word Segmentation and Part-of-speech Tagging via Two-way Attentions of Auto-analyzed Knowledge》,由華盛頓大學博士研究生、創(chuàng)新工場實習生田元賀,創(chuàng)新工場大灣區(qū)人工智能研究院執(zhí)行院長宋彥,創(chuàng)新工場科研合伙人張潼,創(chuàng)新工場CTO兼人工智能工程院執(zhí)行院長王詠剛等人創(chuàng)作。

這兩篇論文各自提出了“鍵-值記憶神經(jīng)網(wǎng)絡的中文分詞模型”和“基于雙通道注意力機制的分詞及詞性標注模型”,將外部知識(信息)創(chuàng)造性融入分詞及詞性標注模型,有效剔除了分詞“噪音”誤導,大幅度提升了分詞及詞性標注效果,將該領域近年來廣泛使用的數(shù)據(jù)集上的分數(shù)全部刷至新高。

今天,創(chuàng)新工場大灣區(qū)人工智能研究院執(zhí)行院長宋彥向媒體分享了這兩篇入選論文的研究內(nèi)容。宋彥本人有超過15年的NLP領域的科研經(jīng)驗。

據(jù)宋彥介紹,中文分詞和詞性標注是中文自然語言處理的兩個基本任務。近年來,隨著預訓練模型的提出,有一些人提出質(zhì)疑是否還有必要進行中文分詞的處理,對此我們提出了不同的意見,尤其考慮到詞匯級別的信息依然是中文信息處理最重要的基礎。一個例子就是,雖然BERT大行其道,但是在中文上基于全詞覆蓋 (whole word masking)的預訓練模型比直接使用單字編碼的效果更好。

而創(chuàng)新工場的這兩篇文章用記憶神經(jīng)網(wǎng)絡的方式記錄對分詞結(jié)果有影響的 n元組,并引入對詞性標注有影響的句法知識,將分詞結(jié)果和自動獲得的知識銜接起來,既發(fā)揮了神經(jīng)網(wǎng)絡的優(yōu)勢,也把知識的優(yōu)勢用上,實現(xiàn)了分詞技術(shù)上小而有效的改進和突破。

“鍵-值記憶神經(jīng)網(wǎng)絡的中文分詞模型” 刷新中文分詞歷史性能

宋彥介紹,通常而言,中文語言因其特殊性,在分詞時面臨著兩個主要難點。

一是歧義問題,由于中文存在大量歧義,一般的分詞工具在切分句子時可能會出錯。例如,“部分居民生活水平”,其正確的切分應為“部分/居民/生活/水平”,但存在“分居”、“民生”等歧義詞。“他從小學電腦技術(shù)”,正確的分詞是:他/從小/學/電腦技術(shù),但也存在“小學”這種歧義詞。

二是未登錄詞問題。未登錄詞指的是不在詞表,或者是模型在訓練的過程中沒有遇見過的詞。例如經(jīng)濟、醫(yī)療、科技等科學領域的專業(yè)術(shù)語或者社交媒體上的新詞,或者是人名。這類問題在跨領域分詞任務中尤其明顯。

對此,《Improving Chinese Word Segmentation with Wordhood Memory Networks》論文提出了基于鍵-值記憶神經(jīng)網(wǎng)絡的中文分詞模型。

該模型利用n元組(即一個由連續(xù)n個字組成的序列,比如“居民”是一個2元組,“生活水平”是一個4元組)提供的每個字的構(gòu)詞能力,通過加(降)權(quán)重實現(xiàn)特定語境下的歧義消解。并通過非監(jiān)督方法構(gòu)建詞表,實現(xiàn)對特定領域的未標注文本的利用,進而提升對未登錄詞的識別。

例如,在“部分居民生活水平”這句話中,到底有多少可能成為詞的組塊?單字可成詞,如“民”;每兩個字的組合可能成詞,如“居民”;甚至四個字的組合也可能成詞,例如“居民生活”。

把這些可能成詞的組合全部找到以后,加入到該分詞模型中。通過神經(jīng)網(wǎng)絡,學習哪些詞對于最后完整表達句意的幫助更大,進而分配不同的權(quán)重。像“部分”、“居民”、“生活”、“水平”這些詞都會被突出出來,但“分居”、“民生”這些詞就會被降權(quán)處理,從而預測出正確的結(jié)果。

鍵-值記憶神經(jīng)網(wǎng)絡分詞模型

在“他從小學電腦技術(shù)” 這句話中,對于有歧義的部分“從小學”(有“從/小學”和“從小/學”兩種分法),該模型能夠?qū)?ldquo;從小”和“學”分配更高的權(quán)重,而對錯誤的n元組——“小學”分配較低的權(quán)重。

為了檢驗該模型的分詞效果,論文進行了嚴格的標準實驗和跨領域?qū)嶒灐?/p>

實驗結(jié)果顯示,該模型在5個數(shù)據(jù)集(MSR、PKU、AS、CityU、CTB6)上的表現(xiàn),刷新最好成績(F值越高,性能越好)。

宋彥表示,與前人的模型進行比較發(fā)現(xiàn),該模型在所有數(shù)據(jù)集上的表現(xiàn)均超過了之前的工作,“把中文分詞領域廣泛使用的標準數(shù)據(jù)集上的性能全部刷到了新高。”

和前人工作的比較

在跨領域?qū)嶒炛?,論文使用網(wǎng)絡博客數(shù)據(jù)集(CTB7)測試。實驗結(jié)果顯示,在整體F值以及未登陸詞的召回率上都有比較大提升。

基于雙通道注意力機制的分詞及詞性標注模型“有效剔除噪音誤導

第二篇論文《Joint Chinese Word Segmentation and Part-of-speech Tagging via Two-way Attentions of Auto-analyzed Knowledge》提供了一種基于雙通道注意力機制的分詞及詞性標注模型。

宋彥介紹,中文分詞和詞性標注是兩個不同的任務。詞性標注是在已經(jīng)切分好的文本中,給每一個詞標注其所屬的詞類,例如動詞、名詞、代詞、形容詞。詞性標注對后續(xù)的句子理解有重要的作用。

在詞性標注中,歧義仍然是個老大難的問題。例如,對于“他要向全班同學報告書上的內(nèi)容”中,“報告書”的正確的切分和標注應為“報告_VV/書_N”。但由于“報告書”本身也是一個常見詞,一般的工具可能會將其標注為“報告書_NN”。

利用句法知識進行正確的詞性標注

句法標注本身需要大量的時間和人力成本。在以往的標注工作中,使用外部自動工具獲取句法知識是主流方法。在這種情況下,如果模型不能識別并正確處理帶有雜音的句法知識,很可能會被不準確的句法知識誤導,做出錯誤的預測。

例如,在句子“他馬上功夫很好”中,“馬”和“上”應該分開(正確的標注應為“馬_NN/上_NN”)。但按照一般的句法知識,卻可能得到不準確的切分及句法關(guān)系,如“馬上”。

斯坦福大學的自動句法分析工具結(jié)果,分成了“馬上”

針對這一問題,創(chuàng)新工場的論文提出了一個基于雙通道注意力機制的分詞及詞性標注模型。

該模型將中文分詞和詞性標注視作聯(lián)合任務,可一體化完成。模型分別對自動獲取的上下文特征和句法知識加權(quán),預測每個字的分詞和詞性標簽,不同的上下文特征和句法知識在各自所屬的注意力通道內(nèi)進行比較、加權(quán),從而識別特定語境下不同上下文特征和句法知識的貢獻。

這樣一來,那些不準確的,對模型預測貢獻小的上下文特征和句法知識就能被識別出來,并被分配小的權(quán)重,從而避免模型被這些有噪音的信息誤導。

基于“雙通道注意力機制”的分詞及詞性標注

即便在自動獲取的句法知識不準確的時候,該模型仍能有效識別并利用這種知識。例如,將前文有歧義、句法知識不準確的句子(“他馬上功夫很好”),輸入該雙通道注意力模型后,便得到了正確的分詞和詞性標注結(jié)果。

分詞及詞性標注實例

為了測試該模型的性能,論文在一般領域和跨領域分別進行了實驗。

一般領域?qū)嶒灲Y(jié)果顯示,該模型在5個數(shù)據(jù)集(CTB5,CTB6,CTB7,CTB9,Universal Dependencies)的表現(xiàn)(F值)均超過前人的工作,也大幅度超過了斯坦福大學的 CoreNLP 工具,和伯克利大學的句法分析器。

即使是在與CTB詞性標注規(guī)范不同的UD數(shù)據(jù)集中,該模型依然能吸收不同標注帶來的知識,并使用這種知識,得到更好的效果。

該模型在所有數(shù)據(jù)集上均超過了之前的工作

CTB5(CTB5是使用最多的中文分詞和詞性標注的數(shù)據(jù)集)結(jié)果

而在跨領域的實驗中,和斯坦福大學的 CoreNLP 工具相比,該模型也有近10個百分點的提升。

跨領域分詞實驗(對話測試集)的結(jié)果

宋彥總結(jié)道,“從技術(shù)創(chuàng)新的角度,我們的貢獻主要有兩點。一是在現(xiàn)有技術(shù)的基礎上,建立了一個一體化的模型框架,使用非監(jiān)督方法構(gòu)建詞表,并把知識(信息)融入進來,使用更高層次的句法知識,來幫助詞性標注,起到'他山之石,可以攻玉’的效果。二是主動吸收和分辨不同的外部知識(信息)。通過鍵-值記憶神經(jīng)網(wǎng)絡和雙通道注意力機制,進行動態(tài)權(quán)重的分配,能夠有效分辨知識,區(qū)分哪些是有效的,哪些是無效的。雖然這些知識是自動獲取的、不準確的,但‘三個臭皮匠,頂個諸葛亮’,經(jīng)過有效利用,總能湊出一些有用的信息。如何實現(xiàn)模型的主動吸收和分辨,就變得更加重要。”

一直以來,創(chuàng)新工場致力于銜接科技創(chuàng)新和行業(yè)賦能,做嫁接科研和產(chǎn)業(yè)應用的橋梁,為行業(yè)改造業(yè)務流程、提升業(yè)務效率。對中文分詞技術(shù)的研究也是如此。

在宋彥看來,中文分詞和詞性標注是最底層的應用,對于接下來的應用和任務處理非常重要。例如對于文本分類、情感分析,文本摘要、機器翻譯等,分詞都是不可或缺的基本“元件”。

“在工業(yè)場景使用的時候,跨領域的模型能力是一個非常直接的訴求。”宋彥強調(diào)。

宋彥以搜索引擎的廣告系統(tǒng)為例向TechWeb介紹,論文提及的新模型可以有效地實現(xiàn)廣告在不同領域進行內(nèi)容匹配的冷啟動。“以現(xiàn)有模型,比方說在新聞領域?qū)W到的模型,如果碰到一個體育領域的廣告,那么這個時候其中很多詞會沒辦法正確切分出來。但是在使用我們的模型時候,在新領域進行廣告內(nèi)容推薦,可以講新領域的知識和事先準備的關(guān)鍵詞等,加入我們的模型,從而把目標文本中一些比較有效的關(guān)鍵詞,通過更好的分詞結(jié)果呈現(xiàn)出來,而這些關(guān)鍵詞,可能會匹配到用戶輸入的一些詞,或者說用戶在特定的網(wǎng)頁瀏覽背景下面他所碰到的一些內(nèi)容。所以如果分詞結(jié)果正確,就能夠有效的把這兩部分內(nèi)的內(nèi)容銜接,使得用戶在搜索的時候,得到的廣告內(nèi)容跟搜索結(jié)果是匹配的。”

目前,這兩篇論文的工具都已經(jīng)開源。

分詞工具: https://github.com/SVAIGBA/WMSeg

分詞及詞性標注工具: https://github.com/SVAIGBA/TwASP

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2020-07-08
創(chuàng)新工場兩篇論文入選ACL2020 中文分詞和詞性標注新模型性能創(chuàng)新高
7月8日消息,全球自然語言處理領域(NLP)頂級學術(shù)會議 ACL 2020 今年在線舉辦,來自創(chuàng)新工場大灣區(qū)人工智能研究院的2篇論文入選,這兩篇論文均聚焦中文分

長按掃碼 閱讀全文