人工智能正在改變?cè)S多行業(yè),但沒(méi)有哪個(gè)行業(yè)像網(wǎng)絡(luò)安全那樣引人注目。隨著網(wǎng)絡(luò)犯罪的激增和技能差距的擴(kuò)大,越來(lái)越明顯的是,人工智能是安全的未來(lái),但仍然存在一些挑戰(zhàn)。最近人們?cè)絹?lái)越關(guān)注的一個(gè)問(wèn)題是對(duì)人工智能可解釋性的需求。
隨著人工智能工具的出現(xiàn),人們對(duì)人工智能可解釋性的擔(dān)憂日益增加,在網(wǎng)絡(luò)安全領(lǐng)域,它和其他應(yīng)用一樣重要嗎?讓我們來(lái)仔細(xì)看看。
什么是人工智能的可解釋性?
要了解可解釋性如何影響網(wǎng)絡(luò)安全,我們必須首先了解為什么它在任何情況下都很重要??山忉屝允窃S多行業(yè)采用人工智能的最大障礙,原因主要有一個(gè),就是信任。
如今,許多人工智能模型都是黑匣子,這意味著我們將無(wú)法看到它們?nèi)绾巫龀鰶Q策。相比之下,可解釋的人工智能(XAI)為模型如何處理和解釋數(shù)據(jù)提供了完全的透明度。當(dāng)使用XAI模型時(shí),可以看到它的輸出以及導(dǎo)致其得出這些結(jié)論的一系列推理,從而建立對(duì)此決策的更多信任。
從網(wǎng)絡(luò)安全的角度來(lái)看,可以考慮一個(gè)自動(dòng)網(wǎng)絡(luò)監(jiān)控系統(tǒng)。想象一下,這個(gè)模型將登錄嘗試標(biāo)記為潛在的泄露。一個(gè)傳統(tǒng)的黑匣子模型會(huì)聲明它認(rèn)為該活動(dòng)是可疑的,但可能不會(huì)說(shuō)明原因。XAI允許進(jìn)一步調(diào)查,以查看哪些具體操作使人工智能將事件歸類為違規(guī),從而加快響應(yīng)時(shí)間并潛在地降低成本。
為什么可解釋性對(duì)于網(wǎng)絡(luò)安全很重要?
在某些用例中,XAI的吸引力是顯而易見(jiàn)的。例如,人力資源部門(mén)必須能夠解釋人工智能決策,以確保它們不存在偏見(jiàn)。然而,有些人可能會(huì)認(rèn)為,只要模型準(zhǔn)確,模型如何得出安全決策并不重要。以下是為什么情況不一定如此的幾個(gè)原因。
1.提高AI準(zhǔn)確率
網(wǎng)絡(luò)安全人工智能可解釋性的最重要原因是它提高了模型的準(zhǔn)確性。人工智能提供了對(duì)潛在威脅的快速響應(yīng),但安全專業(yè)人員必須能夠相信這些響應(yīng)是有用的。不明白為什么模型會(huì)以某種方式對(duì)事件進(jìn)行分類會(huì)阻礙這種信任。
通過(guò)降低誤報(bào)的風(fēng)險(xiǎn),XAI提高了安全AI的準(zhǔn)確性。安全團(tuán)隊(duì)可以準(zhǔn)確地看到為什么一個(gè)模型將某些東西標(biāo)記為威脅。如果是錯(cuò)誤的,他們可以看到原因,并根據(jù)需要進(jìn)行調(diào)整,以防止類似的錯(cuò)誤。
研究表明,安全XAI可以實(shí)現(xiàn)95%以上的準(zhǔn)確率,同時(shí)使錯(cuò)誤分類背后的原因更加明顯。這使我們可以創(chuàng)建更可靠的分類系統(tǒng),確保安全警報(bào)盡可能準(zhǔn)確。
2.更明智的決策
可解釋性提供了更多洞察力,這對(duì)于確定網(wǎng)絡(luò)安全的后續(xù)步驟至關(guān)重要。解決威脅的最佳方法因多種具體情況因素而異。我們可以了解更多關(guān)于人工智能模型,為何以某種方式對(duì)威脅進(jìn)行分類的信息,獲取關(guān)鍵的背景信息。
黑盒人工智能除了分類之外可能無(wú)法提供更多功能。相比之下,XAI可以讓我們了解其決策過(guò)程,揭示威脅的來(lái)龍去脈及其表現(xiàn)方式,從而實(shí)現(xiàn)根本原因分析。然后可以更有效地解決它。
3.持續(xù)改進(jìn)
可解釋的人工智能在網(wǎng)絡(luò)安全中也很重要,因?yàn)樗梢詫?shí)現(xiàn)持續(xù)改進(jìn),網(wǎng)絡(luò)安全是動(dòng)態(tài)的。犯罪分子總是在尋找繞過(guò)防御的新方法,因此安全趨勢(shì)必須做出相應(yīng)的調(diào)整。如果不確定安全人工智能如何檢測(cè)威脅,這可能會(huì)很困難。
僅僅適應(yīng)已知的威脅也是不夠的。在過(guò)去十年中,大約40%的零日漏洞攻擊發(fā)生在2021年。針對(duì)未知漏洞的攻擊變得越來(lái)越普遍,因此必須要能夠在黑客之前找到并解決系統(tǒng)中的弱點(diǎn)。
可解釋性可以讓我們準(zhǔn)確地做到這一點(diǎn)。因?yàn)榭梢钥吹絏AI如何做出決策,所以可以找到可能導(dǎo)致錯(cuò)誤的差距或問(wèn)題,并解決它們以增強(qiáng)安全性。同樣,可以查看導(dǎo)致各種操作的趨勢(shì),以確定應(yīng)該考慮的新威脅。
4.監(jiān)管合規(guī)性
隨著網(wǎng)絡(luò)安全法規(guī)的不斷完善,安全人工智能中可解釋性的重要性也將隨之增長(zhǎng)。像GDPR或HIPAA這樣的隱私法都有廣泛的透明度要求。如果企業(yè)屬于這個(gè)管轄范圍,黑盒人工智能很快就會(huì)成為法律責(zé)任。
安全人工智能可能可以訪問(wèn)用戶數(shù)據(jù)來(lái)識(shí)別可疑活動(dòng)。這意味著我們必須能夠證明模型,如何使用該信息來(lái)遵守隱私法規(guī)。XAI提供了這種透明度,但黑盒AI卻沒(méi)有。目前,此類法規(guī)僅適用于某些行業(yè)和地區(qū),但這種情況可能很快就會(huì)改變。
5.建立信任
如果不出意外的話,網(wǎng)絡(luò)安全人工智能應(yīng)該可以用來(lái)建立信任。許多企業(yè)難以獲得消費(fèi)者的信任,許多人懷疑人工智能的可信度。XAI有助于向客戶保證,安全AI是安全和合乎道德的,因?yàn)榭梢詼?zhǔn)確地確定它是如何做出決策的。
對(duì)信任的需求超出了消費(fèi)者的范圍。安全團(tuán)隊(duì)必須獲得管理層和企業(yè)利益相關(guān)者的支持,才能部署人工智能??山忉屝宰屗麄兡軌蛘故舅麄兊娜斯ぶ悄芙鉀Q方案,如何以及為何有效、道德和安全,從而提高獲得批準(zhǔn)的機(jī)會(huì)。
獲得批準(zhǔn)有助于更快地部署人工智能項(xiàng)目并增加預(yù)算。因此,與沒(méi)有可解釋性的情況相比,安全專業(yè)人員可以更大程度地利用這項(xiàng)技術(shù)。
XAI在網(wǎng)絡(luò)安全方面面臨的挑戰(zhàn)
可解釋性對(duì)于網(wǎng)絡(luò)安全人工智能至關(guān)重要,隨著時(shí)間的推移,它只會(huì)變得更加重要。然而,構(gòu)建和部署XAI帶來(lái)了一些獨(dú)特的挑戰(zhàn)。組織必須認(rèn)識(shí)到這些,以實(shí)現(xiàn)有效的XAI部署。
成本是可解釋的人工智能最重要的障礙之一。由于其標(biāo)記數(shù)據(jù)的要求,監(jiān)督學(xué)習(xí)在某些情況下可能會(huì)很昂貴。這些費(fèi)用可能會(huì)限制,一些企業(yè)證明安全人工智能項(xiàng)目合理性的能力。
同樣,一些機(jī)器學(xué)習(xí)(ML)方法根本無(wú)法很好地轉(zhuǎn)化為對(duì)人類有意義的解釋。強(qiáng)化學(xué)習(xí)是一種新興的機(jī)器學(xué)習(xí)方法,超過(guò)22%的采用人工智能的企業(yè)開(kāi)始使用它。由于強(qiáng)化學(xué)習(xí)通常會(huì)持續(xù)很長(zhǎng)一段時(shí)間,模型可以自由地做出許多相互關(guān)聯(lián)的決策,因此很難收集模型所做的每個(gè)決策,并將其轉(zhuǎn)化為人類可以理解的輸出。
最后,XAI模型的計(jì)算強(qiáng)度很大。并不是每個(gè)企業(yè)都有必要的硬件來(lái)支持這些更復(fù)雜的解決方案,并且擴(kuò)展可能會(huì)帶來(lái)額外的成本問(wèn)題。這種復(fù)雜性也使得構(gòu)建和訓(xùn)練這些模型變得更加困難。
在安全領(lǐng)域有效使用XAI的步驟
安全團(tuán)隊(duì)?wèi)?yīng)謹(jǐn)慎對(duì)待XAI,考慮這些挑戰(zhàn)以及網(wǎng)絡(luò)安全AI可解釋性的重要性。一種解決方案是使用第二個(gè)人工智能模型來(lái)解釋第一個(gè)模型。ChatGPT等工具可以用人類語(yǔ)言解釋代碼,提供一種方法來(lái)告訴用戶模型為何做出某些選擇。
如果安全團(tuán)隊(duì)從一開(kāi)始就使用比透明模型慢的人工智能工具,那么這種方法會(huì)很有幫助。這些替代方案需要更多的資源和開(kāi)發(fā)時(shí)間,但會(huì)產(chǎn)生更好的結(jié)果。許多企業(yè)現(xiàn)在提供現(xiàn)成的XAI工具來(lái)簡(jiǎn)化開(kāi)發(fā)。使用對(duì)抗網(wǎng)絡(luò)來(lái)理解人工智能的訓(xùn)練過(guò)程也有幫助。
無(wú)論哪種情況,安全團(tuán)隊(duì)都必須與人工智能專家密切合作,以確保他們了解自己的模型。開(kāi)發(fā)應(yīng)該是一個(gè)跨部門(mén)、更具協(xié)作性的過(guò)程,以確保每個(gè)需要的人都能理解人工智能決策。企業(yè)必須將人工智能素養(yǎng)培訓(xùn)作為實(shí)現(xiàn)這一轉(zhuǎn)變的優(yōu)先事項(xiàng)。
網(wǎng)絡(luò)安全人工智能必須是可解釋的
可解釋的人工智能提供透明度、更高的準(zhǔn)確性以及持續(xù)改進(jìn)的潛力,所有這些對(duì)于網(wǎng)絡(luò)安全都至關(guān)重要。隨著監(jiān)管壓力和對(duì)人工智能的信任變得更加重要,可解釋性將變得更加重要。
XAI可能會(huì)增加開(kāi)發(fā)挑戰(zhàn),但其好處是值得的。安全團(tuán)隊(duì)開(kāi)始與人工智能專家合作,從頭開(kāi)始構(gòu)建可解釋的模型,可以釋放人工智能的全部潛力。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長(zhǎng)
- 國(guó)家發(fā)改委成立低空經(jīng)濟(jì)發(fā)展司
- 什么是人工智能網(wǎng)絡(luò)? | 智能百科
- 工信部:2025年推進(jìn)工業(yè)5G獨(dú)立專網(wǎng)建設(shè)
- 人工智能如何改變?nèi)蛑悄苁謾C(jī)市場(chǎng)
- 企業(yè)網(wǎng)絡(luò)安全挑戰(zhàn)頻出?Fortinet 給出破解之法
- 2025年生成式人工智能將如何影響眾行業(yè)
- 報(bào)告:人工智能推動(dòng)數(shù)據(jù)中心系統(tǒng)支出激增25%
- 千家早報(bào)|馬斯克預(yù)測(cè):人工智能或?qū)⒊絾蝹€(gè)人類;鴻蒙生態(tài)(武漢)創(chuàng)新中心啟用,推動(dòng)鴻蒙軟硬件在武漢首試首用——2024年12月27日
- 中移建設(shè)被拉入軍采“黑名單”
- 大理移動(dòng)因違規(guī)套現(xiàn)等問(wèn)題,擬被列入軍采失信名單
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。