可解釋的人工智能路徑

隨著越來越多的企業(yè)使用人工智能(AI)為其做出決策,這使得治理工作變得至關(guān)重要,并且人工智能推理路徑的可追溯性成為建立客戶、員工、監(jiān)管機構(gòu)和其他關(guān)鍵利益相關(guān)方信任的關(guān)鍵。

人工智能(AI)將計算范式從基于規(guī)則的編程轉(zhuǎn)變?yōu)榛诮Y(jié)果的方法。它允許流程進行大規(guī)模運行,減少了人為處理錯誤的數(shù)量,并創(chuàng)造了解決問題的一些新方法。在圍棋高手已使用相同的開局策略3000年后,阿爾法狗(AlphaGo)啟發(fā)了圍棋選手去嘗試新的策略。隨著人工智能采用率的增加,它將幫助組織解決傳統(tǒng)自動化技術(shù)無法解決的“最后一公里”問題。但隨著越來越多的企業(yè)讓人工智能來為其作出決策,治理工作將變得非常關(guān)鍵。

最近,在簡柏特公司(Genpact)針對最高管理層和其他高管人員的一項調(diào)查中,有63%的人表示,能夠追蹤一臺使用人工智能設(shè)備的推理路徑,這是非常重要或關(guān)鍵的,而在人工智能領(lǐng)域處于領(lǐng)先地位的公司中,持這一觀點的人數(shù)比例達到88%。簡柏特公司還與受管制市場中的財富500強企業(yè)合作,這些客戶認為,在考慮使用人工智能之前,其推理的可追溯性將是一項關(guān)鍵要求。

為加強監(jiān)管審查工作做好準備

最近,英國劍橋分析公司(Cambridge Analytica)對社交媒體數(shù)據(jù)的濫用,引起了公眾的關(guān)注,該事件喚醒了企業(yè)對監(jiān)管治理工作的更高要求。此外,歐盟的一般數(shù)據(jù)保護條例(GDPR)在5月25日已生效,這將解決數(shù)據(jù)和人工智能治理問題的諸多新要求。如該條例第22條所述,在其他領(lǐng)域中,“數(shù)據(jù)主體有權(quán)不受限于自動流程所做出的決定,包括對其產(chǎn)生法律效力或?qū)ζ洚a(chǎn)生嚴重影響的分析?!痹谝粋€人被拒絕發(fā)放貸款或工作機會的情況下,這可能變得至關(guān)重要。同樣,紐約市最近的算法決策透明度立法表明,美國的監(jiān)管審查工作也在加強。在這種形式下,企業(yè)會很難接受“黑匣子人工智能”。

期待可追蹤的人工智能技術(shù)

目前,一些技術(shù)已經(jīng)足夠成熟,可以提供可追溯性。在處理文本或數(shù)字時,企業(yè)可以考慮使用計算語言學,用戶可以輕松地追蹤推理路徑并精確定位導(dǎo)致機器決定的單詞或數(shù)據(jù)點。例如,如果第三方物流供應(yīng)商同意每英里收取15美分,但其發(fā)票顯示為每英里收取18美分,則機器可以利用上下文語境來提取發(fā)票中的價格和合同所約定的價格,并指出其差異。用戶可以對比查看這些文件以確定機器是否判斷正確。關(guān)鍵在于可跟蹤某一決定的定義屬性來自哪里,并以易于可視化的方式提供底層信息。

提供推理路徑

實現(xiàn)可追溯性的另一種方式是解釋在算法中的一些驅(qū)動因素和推理路徑。Salesforce公司銷售云愛因斯坦(Sales Cloud Einstein)產(chǎn)品中的主要評分功能可以讓你直接了解其如何給出銷售機會的分數(shù),因此,一個公司的銷售團隊可以了解Einstein產(chǎn)品是如何預(yù)測某個銷售機會轉(zhuǎn)化為商機的。

計算語言學也有一個嵌入的推理路徑邏輯,可以為使用技術(shù)的最終用戶進行外化。例如,在貸款審批流程中,系統(tǒng)需要采取多個步驟來處理一個申請。如果某個申請在基于人工智能的自動化貸款申請過程中被拒絕,信貸員應(yīng)該能夠追溯到導(dǎo)致發(fā)生拒絕申請的特定步驟,更重要的是,可以解釋為何人工智能在該步驟做出這樣的決定。

因此,企業(yè)可以通過向消費者解釋推理路徑為什么會做出一個決定,而不只是簡單地拒絕發(fā)放貸款,從而可能導(dǎo)致不良客戶的體驗和引發(fā)合規(guī)問題。因為具備可追溯性,當審計人員要求查看文檔,或者客戶提出詢問,或者出現(xiàn)了其他潛在問題,那么企業(yè)就可以準確知道系統(tǒng)在何處以及如何做出該決定,而不是因為該決定和推理被鎖在黑匣子里,導(dǎo)致一無所知。

為充分利用人工智能而設(shè)計數(shù)據(jù)

關(guān)鍵是要充分了解數(shù)據(jù)的行為。這不僅僅是為了實現(xiàn)人工智能算法,首先要建立起有效的數(shù)據(jù)工程。最佳實踐包括記錄關(guān)于數(shù)據(jù)完整性的假設(shè),解決數(shù)據(jù)偏差,以及在實施前審查機器所確定的新規(guī)則。如果企業(yè)正在使用機器學習技術(shù)來識別異常情況,那么它可以通過檢查和權(quán)衡來手動測試并確定這些結(jié)果是否合理。在設(shè)計和測試人工智能時,讓熟知這些流程和行業(yè)領(lǐng)域問題的人來參與,這也很重要。

可解釋的人工智能會加速人們對人工智能的使用

可追溯性還解決了人工智能技術(shù)實施中的幾項難題。首先,它側(cè)重于這種先進技術(shù)的新興應(yīng)用的質(zhì)量問題。其次,在人與機器交互的發(fā)展過程中,可追溯性使結(jié)果更易于被人理解,并有助于推動人工智能的使用和促進成功實施所需的相關(guān)變更管理。第三,它有助于推動生命科學、醫(yī)療保健和金融服務(wù)等受監(jiān)管行業(yè)的合規(guī)性。

可追溯性存在于一些更成熟的人工智能應(yīng)用中,例如計算語言學。在其他不太成熟的新興技術(shù)中,所謂的黑盒問題仍然存在。這一問題主要存在于深度神經(jīng)網(wǎng)絡(luò),用于圖像識別的機器學習算法或涉及海量數(shù)據(jù)集的自然語言處理的情況下。因為深度神經(jīng)網(wǎng)絡(luò)是通過這些海量數(shù)據(jù)集的多重關(guān)聯(lián)建立起來的,所以目前很難知道為什么會得出一個特定的結(jié)論。企業(yè)需要更全面的治理結(jié)構(gòu),尤其是借助像神經(jīng)網(wǎng)絡(luò)這樣不具備可追溯性的先進技術(shù)。

總而言之,可追溯性使企業(yè)能夠更好地理解整個推理過程,并通過人工智能的實施建立信任關(guān)系,這可以幫助企業(yè)、員工和客戶更好地接受人工智能。隨著人工智能領(lǐng)域的其他方面逐漸成熟,我們希望在其他人工智能技術(shù)中也可看到類似的推理路徑。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2018-06-07
可解釋的人工智能路徑
隨著越來越多的企業(yè)使用人工智能(AI)為其做出決策,這使得治理工作變得至關(guān)重要,并且人工智能推理路徑的可追溯性成為建立客戶、員工、監(jiān)管機構(gòu)和其他關(guān)鍵利益相關(guān)方信任的關(guān)鍵。

長按掃碼 閱讀全文